ปัญญาประดิษฐ์ (AI) ดูเหมือนจะมีอยู่ทุกหนทุกแห่ง บริษัทต่างๆ ใช้แชทบอท AI อันทรงพลังบนหน้าเว็บหรือระบบโทรศัพท์เพื่อจัดการกับคำถามของลูกค้า ห้องข่าวและนิตยสารใช้สิ่งเหล่านี้เพื่อเขียนเรื่องราว สตูดิโอภาพยนตร์ใช้สตูดิโอเหล่านี้ในการผลิตภาพยนตร์ บริษัทเทคโนโลยีใช้สิ่งเหล่านี้ในการเขียนโปรแกรม นักเรียนใช้มันในการเขียนรายงาน ดูเหมือนเวทมนตร์ และด้วยทุกสิ่งที่คาดคะเนว่าเกิดขึ้น “ในระบบคลาวด์” จึงเป็นเรื่องง่ายที่จะเชื่อได้ว่าระบบที่ขับเคลื่อนด้วย AI นั้นดีต่อสิ่งแวดล้อม น่าเสียดายที่สิ่งต่างๆ ไม่เป็นอย่างที่คิด
Chatbots สร้างขึ้นจากการแสวงหาผลประโยชน์ ใช้พลังงานจำนวนมหาศาล และไม่น่าเชื่อถือ และแม้ว่าจะเป็นเรื่องง่ายที่จะจินตนาการว่าพวกเขาเติบโตขึ้นอย่างซับซ้อนและทำให้ชีวิตง่ายขึ้นในบางประเด็น บริษัทต่างๆ ต่างทุ่มเงินหลายพันล้านดอลลาร์ในการสร้างสรรค์เพื่อทำกำไรโดยไม่ต้องกังวลว่าผลลัพธ์จะเป็นประโยชน์ต่อสังคมหรือไม่ กล่าวโดยสรุป เราต้องให้ความสำคัญกับความสนใจขององค์กรในเรื่อง AI อย่างจริงจัง และพัฒนากลยุทธ์ที่สามารถช่วยให้เราควบคุมวิธีพัฒนาและใช้งาน AI ได้
การแข่งขันกำลังดำเนินอยู่
การปฏิวัติแชทบอทเริ่มต้นในปี 2022 ด้วยการเปิดตัว ChatGPT ของ OpenAI ChatGPT สามารถสนทนาได้เหมือนมนุษย์และสามารถตอบคำถามของผู้ใช้ด้วยข้อความที่สร้างขึ้น รวมถึงเขียนบทความและโค้ดได้ สิ่งที่ดีที่สุดคือมันใช้งานได้ฟรี
บริษัทอื่นๆ ที่ตอบสนองต่อความสนใจของสาธารณะใน ChatGPT ก็เริ่มเปิดตัวแชทบอท AI ของตนเองในไม่ช้า ที่ใหญ่ที่สุดและใช้กันอย่างแพร่หลายที่สุดในปัจจุบันคือ Gemini ของ Google (เดิมชื่อ Bard) และ Copilot ของ Microsoft นอกจากนี้ยังมีโปรแกรมอื่นๆ อีกด้วย รวมถึงบางโปรแกรมที่ออกแบบมาเพื่อตอบสนองความต้องการทางธุรกิจเฉพาะด้วย ตัวอย่างเช่น GitHub CoPilot ทำงานเพื่อช่วยนักพัฒนาซอฟต์แวร์สร้างโค้ด และ Claude ของ Anthrophic ได้รับการออกแบบมาเพื่อการค้นหาข้อมูลและการสรุปเอกสาร
และการแข่งขันยังคงสร้างต่อไป รุ่นต่อไป ระบบ AI ที่สามารถรับข้อมูลได้มากขึ้น ประมวลผลได้รวดเร็วยิ่งขึ้น และให้การตอบสนองส่วนบุคคลที่ละเอียดยิ่งขึ้น ตามคำกล่าวของโกลด์แมน แซ็กส์ นักเศรษฐศาสตร์การลงทุนที่เกี่ยวข้องกับ AI ในสหรัฐอเมริกา “อาจสูงถึง 2.5 ถึง 4 เปอร์เซ็นต์ของ GDP” ในทศวรรษหน้า
Chatbots ต้องการฐานข้อมูลคำ ข้อความ รูปภาพ เสียง และพฤติกรรมออนไลน์ที่มีขนาดใหญ่และหลากหลาย รวมถึงอัลกอริธึมที่ซับซ้อนเพื่อให้สามารถจัดระเบียบเนื้อหาเมื่อจำเป็นตามรูปแบบการใช้งานทั่วไป เมื่อได้รับคำถามหรือขอข้อมูล แชทบอทจะระบุเนื้อหาในฐานข้อมูลที่เกี่ยวข้องกับรูปแบบของคำในคำถามหรือคำขอ จากนั้นจึงรวบรวมชุดคำหรือรูปภาพจากฐานข้อมูลที่ตอบสนองได้ดีที่สุดตามข้อมูลที่ให้มา โดยได้รับคำแนะนำจากอัลกอริธึมอีกครั้ง ข้อจำกัด การสอบถาม แน่นอนว่ากระบวนการระบุรูปแบบและการสร้างการตอบสนองต้องใช้พลังงานจำนวนมหาศาล
ไม่ว่าแชทบอตจะฟังดูมีการสนทนาและชาญฉลาดเพียงใด สิ่งสำคัญที่ต้องจำไว้ก็คือ Megan Crouse อธิบาย, ที่:
“แบบจำลองไม่รู้ว่า 'รู้' คำพูดอะไร แต่รู้ว่าสัญลักษณ์ (คำ) ใดน่าจะตามมาภายหลังจากชุดข้อมูลที่ได้รับการฝึก แชทบอทปัญญาประดิษฐ์รุ่นปัจจุบัน เช่น ChatGPT, Bard คู่แข่งของ Google และอื่นๆ ไม่ได้ทำการตัดสินใจโดยใช้ข้อมูลอย่างชาญฉลาดจริงๆ ในทางกลับกัน พวกมันกลับเป็นนกแก้วในอินเทอร์เน็ต โดยพูดซ้ำคำที่มักจะพบติดกันในวิถีการพูดที่เป็นธรรมชาติ คณิตศาสตร์พื้นฐานนั้นเกี่ยวกับความน่าจะเป็น”
แชทบอทที่แตกต่างกันจะให้ผลลัพธ์ที่แตกต่างกันเนื่องจากการเขียนโปรแกรมและเนื่องจากได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลที่แตกต่างกัน ตัวอย่างเช่น นอกเหนือจากการคัดลอกข้อมูลสาธารณะที่มีอยู่บนเว็บแล้ว Gemini ยังสามารถใช้ข้อมูลจาก Google Apps ในขณะที่ Copilot ใช้ข้อมูลที่สร้างจากเครื่องมือค้นหา Bing
Chatbots ได้รับการอัปเกรดหลายครั้งนับตั้งแต่เปิดตัว แต่ละเจเนอเรชั่นมีแพ็คเกจซอฟต์แวร์ที่ซับซ้อนมากขึ้นซึ่งช่วยให้สามารถทำการเชื่อมต่อที่เหมาะสมยิ่งขึ้น รวมถึงขยายฐานข้อมูลโดยการรวมข้อมูลจากคำถามหรือคำขอที่ถูกถาม ด้วยวิธีนี้แชทบอทจะเรียนรู้/ปรับปรุงเมื่อเวลาผ่านไปผ่านการใช้งาน
มุมมองนี้เน้นย้ำถึงความจริงที่ว่าในขณะที่เราอาจพูดถึงสิ่งที่เกิดขึ้นในระบบคลาวด์ ความสามารถของแชทบอทในการตอบสนองต่อคำแนะนำหรือคำถามนั้นขึ้นอยู่กับกระบวนการที่หยั่งรากลึกลงไปในพื้นดิน ใน คำ ของนักเขียนเทคโนโลยี Karen Hao:
“AI มีห่วงโซ่อุปทานเช่นเดียวกับเทคโนโลยีอื่นๆ มีปัจจัยนำเข้าในการสร้างเทคโนโลยีนี้ ข้อมูลเป็นหนึ่ง และพลังการคำนวณหรือชิปคอมพิวเตอร์เป็นอีกสิ่งหนึ่ง และทั้งสองอย่างนี้ก็มีค่าใช้จ่ายด้านมนุษย์อยู่มากเช่นกัน”
ห่วงโซ่อุปทาน: แรงงานมนุษย์
ระบบ AI ต้องการข้อมูล และข้อมูลนั้นมาจากบุคคลในรูปแบบใดรูปแบบหนึ่ง ดังนั้นบริษัทเทคโนโลยีจึงค้นหาข้อมูลใหม่และหลากหลายอย่างต่อเนื่องเพื่อปรับปรุงการทำงานของระบบ AI ของตน ด้วยบล็อกออนไลน์และโพสต์บนเว็บไซต์ หนังสือและบทความที่ตีพิมพ์ การค้นหา ภาพถ่าย เพลง รูปภาพ และวิดีโอที่คัดลอกมาจากอินเทอร์เน็ตอย่างอิสระ เรากำลังช่วยรับประกันบริษัทที่ทำกำไรได้สูงในการแสวงหาผลกำไรที่มากขึ้น ดังเช่นลอเรน เลฟเฟอร์ บันทึก,
“โปรแกรมรวบรวมข้อมูลและโปรแกรมขูดเว็บสามารถเข้าถึงข้อมูลได้อย่างง่ายดายจากทุกที่ที่ไม่ได้อยู่ด้านหลังหน้าเข้าสู่ระบบ… ซึ่งรวมถึงทุกอย่างบนเว็บไซต์แบ่งปันภาพถ่ายยอดนิยม Flickr ตลาดออนไลน์ ฐานข้อมูลการลงทะเบียนผู้มีสิทธิเลือกตั้ง เว็บเพจของรัฐบาล วิกิพีเดีย Reddit แหล่งเก็บข้อมูลการวิจัย สำนักข่าว และสถาบันการศึกษา นอกจากนี้ยังมีการรวบรวมเนื้อหาละเมิดลิขสิทธิ์และการเก็บถาวรของเว็บ ซึ่งมักจะมีข้อมูลที่ได้ถูกลบออกจากตำแหน่งเดิมบนเว็บแล้ว และฐานข้อมูลที่ถูกคัดลอกจะไม่หายไป”
ในความเป็นจริง เนื้อหาที่คัดลอกมาส่วนใหญ่มีลิขสิทธิ์และนำไปใช้โดยไม่ได้รับอนุญาต เพื่อเป็นการตอบสนอง ขณะนี้ผู้จัดพิมพ์ นักเขียน และศิลปินจำนวนหนึ่งกำลังพยายามหยุดยั้งการโจรกรรมดังกล่าว ตัวอย่างเช่น ในเดือนสิงหาคม 2023 The New York Times ได้อัปเดต “ใช้บริการมา” ถึง ห้าม การใช้ข้อความ รูปภาพ รูปภาพ และคลิปเสียง/วิดีโอในการพัฒนา “โปรแกรมซอฟต์แวร์ใดๆ รวมถึงแต่ไม่จำกัดเพียง การฝึกอบรมระบบการเรียนรู้ของเครื่องหรือปัญญาประดิษฐ์ (AI)” แต่ในขณะที่บริษัทใหญ่ๆ บางแห่งมีอำนาจหรืออำนาจทางกฎหมายในการห้ามหรือเจรจาค่าตอบแทนทางการเงินสำหรับการใช้วัสดุของตน ธุรกิจและบุคคลส่วนใหญ่กลับไม่มี ส่งผลให้พวกเขายังคงมีความเสี่ยงที่จะมี “ทรัพย์สินทางปัญญา” นำมาจากพวกเขาฟรีและกลายเป็นสื่อการฝึกอบรม AI ในการให้บริการกิจกรรมสร้างรายได้ขององค์กร
โดยไม่ลดการสูญเสียส่วนบุคคลที่เกี่ยวข้องกับการรวบรวมข้อมูล AI ก็ยังมีปัญหาที่ใหญ่กว่ามากเกี่ยวกับวิธีการรับข้อมูลนี้ การคัดลอกอินเทอร์เน็ตสาธารณะหมายความว่าแชทบอท AI กำลังได้รับการฝึกอบรมโดยใช้สื่อที่มีมุมมองและความเข้าใจที่แตกต่างกันอย่างกว้างขวางเกี่ยวกับวิทยาศาสตร์ ประวัติศาสตร์ การเมือง พฤติกรรมของมนุษย์ และเหตุการณ์ปัจจุบัน รวมถึงการโพสต์และการเขียนโดยสมาชิกของกลุ่มที่มีความเกลียดชังอย่างรุนแรง และข้อมูลที่เป็นปัญหาสามารถส่งผลต่อผลลัพธ์ของแชทบอทที่ซับซ้อนที่สุดได้อย่างง่ายดาย
ตัวอย่างเช่น บริษัทต่างๆ มีการใช้แชทบอทมากขึ้นเพื่อช่วยในการสรรหางาน อย่างไรก็ตาม ดังเช่น Bloomberg News ค้นพบ“เครื่องมือ generative AI ที่รู้จักกันดีที่สุดจะสร้างอคติกลุ่มที่เสียเปรียบตามชื่อของพวกเขาอย่างเป็นระบบ” ยกตัวอย่างการศึกษาของตัวเอง พบ “เมื่อถูกถาม 1000 ครั้งเพื่อจัดอันดับเรซูเม่ที่มีคุณสมบัติเท่าเทียมกันแปดรายการสำหรับบทบาทนักวิเคราะห์การเงินที่แท้จริงในบริษัทที่ติดอันดับ Fortune 500 นั้น ChatGPT มีแนวโน้มน้อยที่สุดที่จะเลือกเรซูเม่ที่มีชื่อเฉพาะสำหรับคนอเมริกันผิวดำ”
Chatbots ขึ้นอยู่กับคุณภาพของแรงงานมนุษย์ในอีกทางหนึ่ง Chatbots ไม่สามารถใช้ข้อมูลจำนวนมากที่รวบรวมโดยโปรแกรมรวบรวมข้อมูลเว็บและสแครปเปอร์ได้โดยตรง รับบทเป็น จอช ดีซีซา อธิบาย“เบื้องหลังแม้แต่ระบบ AI ที่น่าประทับใจที่สุดก็ยังมีคน – คนจำนวนมากติดป้ายข้อมูลเพื่อฝึกอบรมและชี้แจงข้อมูลเมื่อเกิดความสับสน”
โดยทั่วไปบริษัท AI รายใหญ่จะจ้างบริษัทขนาดเล็กอื่นๆ เพื่อค้นหาและฝึกอบรมพนักงานที่จำเป็นสำหรับกระบวนการติดป้ายกำกับข้อมูล และผู้รับเหมาช่วงเหล่านี้ มักพบคนงานของตนที่เรียกว่าผู้อธิบายไว้ในซีกโลกใต้ ซึ่งมักพบในเนปาลและเคนยา เนื่องจากกระบวนการใส่คำอธิบายประกอบและรายการที่มีคำอธิบายประกอบนั้นถือว่าเป็นความลับทางการค้า ผู้อธิบายประกอบจึงไม่ค่อยรู้จักเจ้านายสูงสุดของตน และจะถูกไล่ออกหากพบว่าพวกเขาหารือเกี่ยวกับสิ่งที่พวกเขาทำกับผู้อื่น แม้แต่เพื่อนร่วมงาน
Dzieza อธิบายว่าผู้อธิบายงานบางคนต้องทำเพื่อให้แชทบอทสามารถใช้ข้อมูลที่รวบรวมมาให้พวกเขาได้ ตัวอย่างเช่น คำอธิบายประกอบติดป้ายกำกับรายการในวิดีโอและรูปภาพ สิ่งนี้จำเป็นต้องทำเพื่อให้แน่ใจว่าระบบ AI จะสามารถเชื่อมต่อการกำหนดค่าพิกเซลเฉพาะกับรายการหรืออารมณ์เฉพาะได้ บริษัทที่สร้างระบบ AI สำหรับยานพาหนะที่ขับเคลื่อนด้วยตนเองจำเป็นต้องมีคำอธิบายประกอบเพื่อระบุรายการที่สำคัญทั้งหมดในวิดีโอที่ถ่ายจากฉากถนนหรือทางหลวง นั่นหมายถึง “การระบุยานพาหนะทุกคัน คนเดินถนน นักปั่นจักรยาน และทุกสิ่งที่คนขับจำเป็นต้องทราบ ทีละเฟรม และจากทุกมุมกล้องที่เป็นไปได้” ดังที่ Dzieza รายงาน นี่เป็น “งานที่ยากและซ้ำซาก” ฟุตเทจหลายวินาทีใช้เวลาแปดชั่วโมงในการอธิบายประกอบ ซึ่ง [ผู้อธิบายประกอบ] ได้รับเงินประมาณ 10 ดอลลาร์”
งานประเภทนี้แม้จะได้ค่าจ้างต่ำแต่ก็มีความสำคัญ หากกระบวนการคำอธิบายประกอบทำได้ไม่ดีหรือฐานข้อมูลมีจำกัด ระบบอาจล้มเหลวได้ง่าย ประเด็นสำคัญ: ในปี 2018 ผู้หญิงคนหนึ่งถูกรถ Uber ที่ขับเคลื่อนด้วยตนเองชนและเสียชีวิต ระบบ AI ล้มเหลวเพราะถึงแม้ “มันถูกตั้งโปรแกรมให้หลีกเลี่ยงนักปั่นจักรยานและคนเดินถนน แต่ก็ไม่รู้ว่าจะทำให้คนขี่จักรยานข้ามถนนได้อย่างไร”
นอกจากนี้ ยังมีการจ้างผู้อธิบายประกอบให้ติดป้ายกำกับรายการในภาพถ่ายโซเชียลมีเดียอีกด้วย ซึ่งอาจเกี่ยวข้องกับการระบุและติดป้ายกำกับเสื้อที่มองเห็นได้ทั้งหมดที่มนุษย์สามารถสวมใส่ได้ ซึ่งจะต้องมีการบันทึกว่าเป็น "เสื้อโปโล เสื้อที่สวมใส่กลางแจ้ง เสื้อที่แขวนอยู่บนชั้นวาง" ฯลฯ
งานอื่นๆ เกี่ยวข้องกับการติดป้ายอารมณ์ ตัวอย่างเช่น นักอธิบายบางคนได้รับการว่าจ้างให้ดูรูปใบหน้า รวมถึงการถ่ายเซลฟี่ที่ถ่ายโดยผู้อธิบาย และติดป้ายกำกับสถานะทางอารมณ์ที่รับรู้ของเรื่อง ส่วนคนอื่นๆ ได้รับการว่าจ้างให้ติดป้ายกำกับอารมณ์ของลูกค้าที่โทรมาสั่งร้านพิซซ่าในเครือ อีกงานหนึ่งมีคำอธิบายประกอบที่ติดป้ายกำกับอารมณ์ของโพสต์ Reddit งานนี้ถือเป็นความท้าทายสำหรับคนงานชาวอินเดียกลุ่มหนึ่ง เนื่องจากขาดความคุ้นเคยกับวัฒนธรรมอินเทอร์เน็ตของสหรัฐอเมริกาเป็นหลัก ผู้รับเหมาช่วงตัดสินใจว่าหลังจากตรวจสอบงานแล้ว พบว่าโพสต์ประมาณ 30 เปอร์เซ็นต์มีป้ายกำกับไม่ถูกต้อง
บางทีงานฝึกอบรม AI ที่เติบโตเร็วที่สุดอาจเกี่ยวข้องกับการโต้ตอบของมนุษย์โดยตรงกับแชทบอท ผู้คนได้รับการว่าจ้างให้อภิปรายหัวข้อต่างๆ และแชทบอตได้รับการตั้งโปรแกรมให้โต้ตอบสองแบบที่แตกต่างกันในแต่ละการสนทนา จากนั้น “ผู้อภิปราย” ที่ได้รับการว่าจ้างจะต้องเลือกคำตอบที่พวกเขาคิดว่า “ดีที่สุด” จากนั้นข้อมูลนี้จะถูกป้อนกลับเข้าสู่ระบบเพื่อช่วยให้ฟังดูเป็น "มนุษย์" มากขึ้น
กล่าวโดยสรุป ระบบ AI ขึ้นอยู่กับการทำงานของมนุษย์เป็นอย่างมาก สิ่งเหล่านี้ไม่ใช่ระบบเวทย์มนตร์ ซึ่งทำงานโดยไม่ได้รับผลกระทบจากอคติหรืออารมณ์ของมนุษย์ และกิจกรรมของพวกเขาไม่ได้เกิดขึ้นในเมฆในจินตนาการ จุดต่อมานี้จะชัดเจนยิ่งขึ้นเมื่อเราพิจารณาโครงสร้างพื้นฐานที่จำเป็นสำหรับการดำเนินงาน
ห่วงโซ่อุปทาน: ศูนย์ข้อมูล
การเติบโตของ AI ได้รับการสนับสนุนจากการสร้างศูนย์ข้อมูลจำนวนมาก และความต้องการไฟฟ้าที่เพิ่มขึ้นอย่างต่อเนื่องเพื่อใช้งานคอมพิวเตอร์และเซิร์ฟเวอร์ที่พวกเขาอาศัยอยู่ รวมถึงเครื่องปรับอากาศที่ต้องทำงานอย่างต่อเนื่องเพื่อป้องกันความร้อนสูงเกินไป ในความเป็นจริง“ปัจจุบันระบบคลาวด์มีการปล่อยก๊าซคาร์บอนไดออกไซด์มากกว่าอุตสาหกรรมการบิน ศูนย์ข้อมูลแห่งเดียวสามารถใช้ไฟฟ้าเทียบเท่ากับบ้าน 50,000 หลัง”
ตาม สำหรับสำนักงานพลังงานระหว่างประเทศ ศูนย์ข้อมูล 2,700 แห่งที่ดำเนินงานในสหรัฐอเมริกามีหน้าที่รับผิดชอบมากกว่า 4 เปอร์เซ็นต์ของการใช้พลังงานทั้งหมดของประเทศในปี 2022 และส่วนแบ่งของพวกเขามีแนวโน้มที่จะสูงถึง 6 เปอร์เซ็นต์ภายในปี 2026 แน่นอนว่าการประมาณการดังกล่าวคร่าวๆ ทั้งสอง เพราะบริษัทเทคโนโลยีรายใหญ่นั้น ไม่เต็มใจ เพื่อแบ่งปันข้อมูลที่เกี่ยวข้องและเนื่องจากระบบ AI ได้รับการฝึกอบรมเกี่ยวกับข้อมูลใหม่ ๆ อย่างต่อเนื่องและอัปเกรดด้วยทักษะที่มากขึ้น หมายถึงการใช้พลังงานต่อกิจกรรมที่มากขึ้น
แม้กระทั่งในปัจจุบันนี้ ยังมีสัญญาณว่าความต้องการพลังงานของศูนย์ข้อมูลกำลังเก็บภาษีระบบส่งไฟฟ้าของสหรัฐฯ เช่นเดียวกับวอชิงตันโพสต์ บันทึก: “เวอร์จิเนียตอนเหนือต้องการโรงไฟฟ้านิวเคลียร์ขนาดใหญ่หลายแห่งเพื่อรองรับศูนย์ข้อมูลใหม่ทั้งหมดที่วางแผนไว้และอยู่ระหว่างการก่อสร้าง รัฐเท็กซัส ซึ่งไฟฟ้าดับเป็นประจำในช่วงหน้าร้อน ต้องเผชิญกับภาวะที่กลืนไม่เข้าคายไม่ออกแบบเดียวกัน”
แปซิฟิกตะวันตกเฉียงเหนือก็เผชิญกับความท้าทายที่คล้ายกัน ในฐานะที่เป็น Oregonian หนังสือพิมพ์ชี้ให้เห็น:
“ศูนย์ข้อมูลที่ขยายตัวทั่วรัฐโอเรกอนจะใช้พลังงานไฟฟ้ามากกว่าที่ระบบสาธารณูปโภคในภูมิภาคและผู้วางแผนพลังงานคาดการณ์ไว้อย่างมาก ตามการคาดการณ์ใหม่สามฉบับที่ออกในฤดูร้อน [2023]
“นั่นทำให้เกิดแรงกดดันมากขึ้นต่อโครงข่ายไฟฟ้าทางตะวันตกเฉียงเหนือ และทำให้เกิดข้อสงสัยใหม่ ๆ ว่า Oregon จะสามารถบรรลุเป้าหมายพลังงานสะอาดอันทะเยอทะยานที่รัฐตั้งไว้เมื่อสองปีที่แล้วได้หรือไม่...
“ขณะนี้ Bonneville Power Administration คาดว่าภายในปี 2041 ความต้องการไฟฟ้าของศูนย์ข้อมูลในรัฐโอเรกอนและวอชิงตันจะเพิ่มขึ้นสองเท่าครึ่ง โดยจะดึงพลังงานไฟฟ้าเฉลี่ย 2,715 เมกะวัตต์ นั่นเพียงพอที่จะจ่ายไฟให้กับบ้านหนึ่งในสามของบ้านทั้งหมดในทั้งสองรัฐในปัจจุบัน”
ความต้องการพลังงานที่พุ่งสูงขึ้นนี้ ซึ่งได้รับแรงหนุนจากความต้องการ AI ที่เติบโตอย่างรวดเร็ว ถือเป็นภัยคุกคามสำคัญต่อความพยายามของเราในการต่อสู้กับภาวะโลกร้อน ตัวอย่างเช่น ปัญหาเรื่องพลังงานได้ส่งผลให้แคนซัส เนแบรสกา วิสคอนซิน และเซ้าธ์คาโรไลน่าต้องชะลอการปิดโรงงานถ่านหินออกไป รายงานปี 2024 โดยกลุ่มปฏิบัติการด้านสภาพภูมิอากาศหลายกลุ่มเกี่ยวกับภัยคุกคามด้านสภาพภูมิอากาศที่เกิดจาก AI พบ การใช้พลังงานของศูนย์ข้อมูลเพิ่มขึ้นสองเท่า ซึ่งสำนักงานพลังงานระหว่างประเทศคาดการณ์ว่าจะเกิดขึ้นในอีกสองปีข้างหน้า จะนำไปสู่การปล่อยความร้อนของดาวเคราะห์เพิ่มขึ้น 80 เปอร์เซ็นต์ นี่เป็นราคาที่รุนแรงในการจ่ายสำหรับบริการ AI ใหม่ที่กำลังเปิดตัว โดยไม่คำนึงถึงความสามารถในการตอบสนองความต้องการที่แท้จริง แทนที่จะสร้างขึ้น
“โน้มน้าวใจไม่จริง”
เห็นได้ชัดว่าบริษัทเทคโนโลยีรายใหญ่กำลังเดิมพันว่า AI จะสร้างผลกำไรมหาศาลให้กับพวกเขา และไม่ปล่อยให้โอกาสใดเลย พวกเขากำลังทำทุกอย่างเท่าที่ทำได้เพื่อฝังพวกเขาไว้ในชีวิตของเรา ก่อนที่เราจะมีโอกาสพิจารณาว่าเราต้องการพวกเขาหรือไม่ ปัจจุบัน ระบบ AI กำลังได้รับการส่งเสริมให้เป็นแนวทางในการปรับปรุงการดูแลสุขภาพ ให้คำแนะนำด้านสุขภาพจิต ให้คำแนะนำทางกฎหมาย ให้ความรู้แก่นักเรียน ปรับปรุงการตัดสินใจส่วนบุคคลของเรา เพิ่มประสิทธิภาพในสถานที่ทำงาน และอื่นๆ อีกมากมาย
ดูเหมือนว่าจะถูกลืมไปว่าระบบ AI นั้นดีพอๆ กับข้อมูลที่ป้อนและซอฟต์แวร์ที่เขียนขึ้นเพื่อใช้งานเท่านั้น กล่าวอีกนัยหนึ่ง การทำงานของพวกมันขึ้นอยู่กับมนุษย์ และที่สำคัญกว่านั้นคือไม่มีใครรู้จริงๆ ว่าระบบ AI ใช้ข้อมูลที่ได้รับการฝึกอบรมมาอย่างไร กล่าวอีกนัยหนึ่ง เป็นไปไม่ได้ที่จะติดตาม "กระบวนการให้เหตุผล" สัญญาณเตือนว่าระบบเหล่านี้มียอดขายล้นเกินอย่างร้ายแรงปรากฏให้เห็นแล้ว
ตัวอย่างเช่น ในปี 2022 ลูกค้ารายหนึ่งติดต่อ Air Canada เพื่อสอบถามวิธีขอค่าโดยสารสำหรับการเสียชีวิต แชทบอตที่ขับเคลื่อนด้วย AI ฝ่ายบริการลูกค้าของสายการบินแจ้งเขาว่าเขาเพียงกรอกแบบฟอร์มภายใน 90 วันนับจากวันที่ออกตั๋วเพื่อรับเงินคืนในการเดินทาง แต่เมื่อส่งแบบฟอร์มหลังเสร็จสิ้นการเดินทางแล้วเจ้าหน้าที่สายการบินแจ้งว่าจะไม่มีการลดราคาค่าโดยสารเนื่องจากต้องกรอกแบบฟอร์มก่อนการเดินทาง เมื่อเขาแสดงภาพหน้าจอที่เขาถ่ายให้สายการบินเห็นสิ่งที่บอทบอก สายการบินตอบโต้ว่าจะไม่รับผิดชอบต่อสิ่งที่บอทพูด
ลูกค้าฟ้องแอร์แคนาดาแล้วชนะคดี ผู้พิพากษา เด่น ที่:
“Air Canada โต้แย้งว่าไม่สามารถรับผิดชอบต่อข้อมูลที่ให้โดยตัวแทน ลูกจ้าง หรือตัวแทนรายใดรายหนึ่ง รวมถึงแชทบอทด้วย มันไม่ได้อธิบายว่าทำไมจึงเชื่อว่าเป็นเช่นนั้น ส่งผลให้ Air Canada แนะนำว่าแชทบอทเป็นนิติบุคคลแยกต่างหากที่รับผิดชอบการกระทำของตนเอง นี่เป็นการส่งผลงานที่น่าทึ่ง”
นอกเหนือจากนั้นบริษัทต่างๆ อาจต้องการให้ Chatbot ประกาศแยกนิติบุคคลเพื่อให้พวกเขาสามารถแยกตัวออกจากการกระทำของตนได้หากต้องการ สายการบินยังไม่ได้อธิบายว่าทำไม Chatbot จึงให้ข้อมูลที่ไม่ถูกต้อง
จากนั้นก็มีแชทบอทของ NYC ซึ่งพัฒนาขึ้นด้วยความช่วยเหลือของ Microsoft ซึ่งเมืองนี้ส่งเสริมให้เป็น "ร้านค้าครบวงจร" สำหรับธุรกิจเพื่อช่วยให้พวกเขาติดตามกฎและข้อบังคับของเมืองในปัจจุบัน นี่คือบางส่วน ตัวอย่าง ของคำแนะนำที่น่าสงสัยที่ให้ไว้เพื่อตอบคำถาม:
“แชทบอตแนะนำอย่างผิด ๆ ว่าเป็นเรื่องถูกกฎหมายที่นายจ้างจะไล่คนงานที่บ่นเกี่ยวกับการล่วงละเมิดทางเพศ ไม่เปิดเผยการตั้งครรภ์ หรือปฏิเสธที่จะตัดเดรดล็อคของพวกเขา...
“เมื่อถูกถามว่าร้านอาหารสามารถเสิร์ฟชีสที่สัตว์ฟันแทะกัดได้หรือไม่ ร้านอาหารนั้นตอบว่า “ได้ คุณยังคงเสิร์ฟชีสให้กับลูกค้าได้ถ้ามันมีหนูกัด” ก่อนที่จะเสริมว่าการประเมิน “ขอบเขตของความเสียหายเป็นสิ่งสำคัญ เกิดจากหนู' และเพื่อ 'แจ้งให้ลูกค้าทราบถึงสถานการณ์'”
อาจไม่น่าแปลกใจเลยที่ทั้ง Microsoft และนายกเทศมนตรีของ NYC ต่างตอบกลับโดยบอกว่าปัญหาดังกล่าวจะได้รับการแก้ไขในที่สุด ในความเป็นจริง พวกเขาเสริมว่าผู้ใช้จะเร่งความเร็วในการปรับแต่งระบบอย่างละเอียดที่จำเป็นโดยการชี้ให้เห็นข้อผิดพลาด โดยชี้ให้เห็นข้อผิดพลาด
ปัญหาประเภทนี้แม้จะร้ายแรง แต่ก็ดูซีดเซียวเมื่อเปรียบเทียบกับปัญหา "ภาพหลอน" ของ AI อาการประสาทหลอนเกิดขึ้นเมื่อระบบ AI ปลอมแปลงข้อมูล ซึ่งอาจรวมถึงชื่อ วันที่ หนังสือ คดีทางกฎหมาย คำอธิบายทางการแพทย์ แม้แต่เหตุการณ์ทางประวัติศาสตร์ ตัวอย่างเช่น มีคดีทางกฎหมายหลายคดีที่แชทบอทคิดค้นคดีที่ทนายความอ้างถึงในคำฟ้องของศาล
ประเด็นสำคัญ: ทนายความที่เป็นตัวแทนของโจทก์ในเดือนมิถุนายน 2023 กรณี ที่เกี่ยวข้องกับการฟ้องร้องสายการบินโคลอมเบียได้ส่งบทสรุปที่มีกรณีสนับสนุนหกกรณี "พบ" โดยแชทบอท น่าเสียดายที่กรณีเหล่านี้ไม่เคยมีมาก่อน บางสายการบินถึงกับกล่าวถึงสายการบินที่ไม่มีอยู่ด้วย ผู้พิพากษายกฟ้องและปรับทนายความฐานใช้การอ้างอิงปลอม ทนายความไม่เห็นด้วยกับคำกล่าวของผู้พิพากษาที่ว่าพวกเขากระทำโดยไม่สุจริต กล่าวในคำแก้ต่างว่า "เราทำผิดพลาดโดยบริสุทธิ์ใจโดยไม่เชื่อว่าเทคโนโลยีชิ้นหนึ่งสามารถสร้างคดีขึ้นมาได้
แม้แต่แชทบอทที่มีความซับซ้อนที่สุดก็อาจมีอาการประสาทหลอนได้ เมื่อถามถึงอัตราต่อรองการเดิมพันซูเปอร์โบวล์ปี 2024 ที่จะจัดขึ้นในวันรุ่งขึ้น แชทบอทของ Google ประกาศ มันสายเกินไปที่จะเดิมพันเนื่องจาก Superbowl ได้เกิดขึ้นแล้ว โดย San Francisco 49ers เอาชนะ Kansas City Chiefs ด้วยคะแนน 34 ต่อ 28 รวมถึงสถิติผู้เล่นบางส่วนด้วย เกมนี้เมื่อเล่นแล้วแคนซัสซิตี้ชนะ แชทบอทของ Microsoft ก็ทำเช่นเดียวกัน โดยยืนยันว่าเกมจบลงแล้วแม้ว่าจะยังไม่ได้เล่นก็ตาม อย่างไรก็ตามมีการประกาศว่า Kansas City Chiefs ได้รับชัยชนะ
ลองจินตนาการดูว่าจะมีค่าใช้จ่ายเท่าไรหากแชทบอทที่ให้คำแนะนำทางการแพทย์มีอาการประสาทหลอน กองทัพสหรัฐฯ กำลังเพิ่มการใช้เทคโนโลยี AI อย่างรวดเร็วในหลากหลายวิธี รวมถึงการระบุภัยคุกคาม นำทางเครื่องบินไร้คนขับ รวบรวมข้อมูลข่าวกรอง และวางแผนการทำสงคราม ลองนึกภาพภัยพิบัติที่อาจเกิดขึ้นซึ่งอาจเป็นผลมาจากการฝึกอบรมข้อมูลระบบที่ไม่เพียงพอหรือไม่สมบูรณ์หรือแย่กว่านั้นคือภาพหลอน ประเด็นที่ชัดเจนก็คือระบบเหล่านี้ยังห่างไกลจากการเข้าใจผิดและด้วยเหตุผลหลายประการ เอกสารภายในของ Microsoft จะรวบรวมสิ่งนี้ได้ดีที่สุดเมื่อเป็นเช่นนั้น ประกาศ ว่าระบบ AI ใหม่นั้น “สร้างขึ้นเพื่อให้โน้มน้าวใจ ไม่ใช่ความจริง”
จะทำอะไร?
จนถึงขณะนี้ความกังวลของสาธารณชนเกี่ยวกับ AI มุ่งเน้นไปที่การใช้ข้อมูลส่วนบุคคลโดยระบบ AI โดยไม่ได้รับอนุญาต ผู้คนต้องการการป้องกันการทำลายเนื้อหาจากเว็บโดยไม่ได้รับอนุญาต และพวกเขาไม่ต้องการให้มีปฏิสัมพันธ์กับระบบ AI กลายเป็นกิจกรรมการสร้างข้อมูลที่อาจทำให้พวกเขาถูกฉ้อโกง การเลือกปฏิบัติ หรือการคุกคาม ขณะนี้มีหน่วยงานของรัฐและท้องถิ่นหลายแห่ง พิจารณา วิธีในการบรรลุเป้าหมายนี้ และในปี 2023 ประธานาธิบดีไบเดนได้ออกแถลงการณ์ของรัฐบาลกลาง คำสั่งของผู้บริหาร ที่พยายามให้แน่ใจว่าระบบ IA “พื้นฐาน” ใหม่ได้รับการทดสอบข้อบกพร่องอย่างเพียงพอก่อนที่จะเผยแพร่สู่สาธารณะ สิ่งเหล่านี้เป็นขั้นตอนแรกที่เป็นประโยชน์
การต่อสู้ที่รุนแรงที่สุดเกี่ยวกับการใช้ AI กำลังเกิดขึ้นในที่ทำงาน บริษัทต่างๆ ต่างก็ใช้ระบบ AI เพื่อเก็บรักษา แท็บ ในการจัดคนงาน หน้าจอ ประสิทธิภาพของพนักงานและเมื่อเป็นไปได้ กำจัด ของคนงาน ไม่น่าแปลกใจเลยที่คนงานในสหภาพแรงงานเริ่มต่อสู้กลับ โดยเสนอข้อจำกัดในการใช้ระบบ AI ของบริษัท
ตัวอย่างเช่น Writers Guild of America (WGA) ซึ่งเป็นตัวแทนของนักเขียนบทภาพยนตร์ประมาณ 12,000 คน ได้โจมตีบริษัทผลิตภาพยนตร์รายใหญ่หลายแห่ง รวมถึง Universal, Paramount, Walt Disney, Netflix, Amazon และ Apple เป็นเวลาห้าเดือนในปี 2023 เพื่อขอขึ้นค่าจ้าง การคุ้มครองการจ้างงาน และข้อจำกัดในการใช้ AI ที่สำคัญคือ Brian Merchant คอลัมนิสต์ของ LA Times อธิบาย:
“ความกังวลเกี่ยวกับการใช้ generative AI เช่น ChatGPT ไม่ได้อยู่ในใจเมื่อผู้เขียนนั่งคุยกับสตูดิโอเป็นครั้งแรกเพื่อเริ่มการเจรจาต่อรอง ข้อเสนอแรกของ WGA ระบุเพียงว่าสตูดิโอจะไม่ใช้ AI เพื่อสร้างสคริปต์ต้นฉบับ และเฉพาะเมื่อสตูดิโอปฏิเสธอย่างไม่ไยดีเท่านั้นที่ธงแดงจะขึ้น
“นั่นคือตอนที่ผู้เขียนตระหนักว่าสตูดิโอต่างๆ จริงจังกับการใช้ AI หากไม่สร้างสคริปต์ที่เสร็จสมบูรณ์ ซึ่งทั้งสองฝ่ายรู้ดีว่าเป็นไปไม่ได้ในช่วงหัวเลี้ยวหัวต่อนี้ – จากนั้นเป็นการใช้ประโยชน์จากนักเขียน ทั้งในฐานะที่เป็นภัยคุกคามและเป็นวิธีการในการปรับข้อเสนอการเขียนซ้ำที่ลดลง ค่าธรรมเนียม นั่นคือตอนที่ WGA ขีดเส้นบนพื้นทราย เมื่อเราเริ่มเห็นป้ายบนเส้นรั้วที่ประณาม AI แพร่ระบาดบนโซเชียลมีเดีย และพาดหัวข่าวที่กล่าวถึงความขัดแย้งที่เกิดขึ้นกับหนังสือพิมพ์แบบนี้”
ในความเป็นจริง การตระหนักรู้ที่เพิ่มขึ้นถึงความจำเป็นในการควบคุมการใช้ระบบ AI ทำให้สมาคมนักเขียนจัดการประชุมเกี่ยวกับ AI หลายครั้งในระหว่างการนัดหยุดงานสำหรับคนงานในอุตสาหกรรมที่เกี่ยวข้อง รวมถึงผู้ที่ทำงานในร้านค้าสื่อดิจิทัลด้วย ผู้เข้าร่วมจำนวนมากลงเอยด้วยการเข้าแถวเพื่อสนับสนุนผู้เขียนบทที่โดดเด่น
การนัดหยุดงานสร้างผลกำไรให้กับนักเขียนอย่างมาก ในแง่ของ AI สัญญาฉบับใหม่ห้ามมิให้ใช้ระบบ AI แบบจำลองภาษาขนาดใหญ่ในการเขียนหรือเขียนสคริปต์ใหม่หรือสำหรับแหล่งข้อมูล ในทางกลับกัน นักเขียนจะได้รับอนุญาตให้นำไปใช้ได้หากต้องการ สัญญานี้ยังไม่อนุญาตให้ใช้เนื้อหาของนักเขียนเพื่อฝึกระบบ AI ในฐานะนักวิเคราะห์คนหนึ่ง แสดงความคิดเห็น“ความกลัวที่ว่าฉบับร่างแรกจะทำผ่าน ChatGPT แล้วส่งต่อให้นักเขียนโดยเสียค่าธรรมเนียมการเขียนซ้ำที่ถูกกว่าได้ถูกยุติลงแล้ว นี่อาจเป็นหนึ่งในข้อตกลงการเจรจาร่วมฉบับแรกๆ ที่จะวางเครื่องหมายสำหรับ AI ที่เกี่ยวข้องกับคนงาน”
สมาคมนักแสดงหน้าจอ-สมาพันธ์ศิลปินโทรทัศน์และวิทยุแห่งอเมริกา (SAG-AFTRA) ประท้วงผู้ผลิตภาพยนตร์และโทรทัศน์รายใหญ่สองเดือนหลังจากการเริ่มประท้วง WGA ไม่น่าแปลกใจเลยที่นโยบาย AI เป็นหนึ่งในประเด็นสำคัญที่กระตุ้นให้เกิดการตัดสินใจหยุดงาน บางทีสิ่งที่สำคัญที่สุดคือนักแสดง ที่ประสบความสำเร็จ ในการชนะสัญญาฉบับใหม่ที่จะบังคับให้ผู้ผลิตต้องเจรจาเรื่องการใช้ AI ในอนาคต
ตัวอย่างเช่น ข้อตกลงกำหนดว่าหากผู้ผลิตวางแผนที่จะใช้ "นักแสดงสังเคราะห์" (บุคคลที่ดูเป็นธรรมชาติซึ่งสร้างขึ้นทางดิจิทัล ซึ่ง "ไม่สามารถระบุได้ว่าเป็นนักแสดงตามธรรมชาติใดๆ ก็ตาม") พวกเขาจะต้องแจ้งและเจรจาต่อรองกับสหภาพเกี่ยวกับการตัดสินใจที่จะไม่ จ้างนักแสดงโดยธรรมชาติ โดยมีความเป็นไปได้ที่จะจ่ายค่าธรรมเนียมให้กับสหภาพ หากผู้ผลิตต้องการใช้ "นักแสดงสังเคราะห์ที่เป็นที่รู้จัก" (บุคคลที่ดูเป็นธรรมชาติซึ่งสร้างขึ้นทางดิจิทัลและเป็นที่รู้จักในฐานะนักแสดงโดยธรรมชาติ) พวกเขาจะต้องต่อรองกับนักแสดงก่อนและได้รับความยินยอมจากพวกเขา
คนงานคนอื่นๆ ยังมีส่วนร่วมในการต่อรองอย่างหนักกับเจ้านายเกี่ยวกับการใช้เทคโนโลยี AI ทั้งเพื่อปกป้องงานของพวกเขาและเพื่อปกป้องมาตรฐานทางวิชาชีพ เป็นต้น นักข่าว- การต่อสู้ดิ้นรนด้านแรงงานเหล่านี้เป็นจุดเริ่มต้นสำคัญในการพัฒนารั้วกั้นที่จำเป็นสำหรับการใช้งาน AI พวกเขาสามารถเป็นรากฐานในการสร้างพันธมิตรแรงงานและชุมชนในวงกว้างขึ้น ต่อต้านแรงผลักดันขององค์กรในการใช้เทคโนโลยี AI เพื่อลดการเชื่อมโยงของมนุษย์และหน่วยงานของมนุษย์ – ในระบบการแพทย์ สถาบันการศึกษา การขนส่ง การรายงานข่าว การสื่อสารกับหน่วยงานสาธารณะและผู้ให้บริการของเรา ของสินค้าและบริการ และยังมีรายการต่อไป โอกาสในการประสบความสำเร็จของเราจะดีขึ้นอย่างมากหากเราสามารถช่วยให้คนทำงานมองเห็นโฆษณาเกินจริงเพื่อประเมินต้นทุนและผลประโยชน์ทั้งหมดที่เกี่ยวข้องกับเทคโนโลยี AI ได้อย่างแม่นยำ -
Martin Hart-Landsberg เป็นศาสตราจารย์กิตติคุณสาขาเศรษฐศาสตร์ที่ Lewis and Clark College, พอร์ตแลนด์, ออริกอน; และนักวิจัยเสริมสถาบันสังคมศาสตร์ มหาวิทยาลัยแห่งชาติคยองซัง, เกาหลีใต้. สาขาวิชาการสอนและการวิจัยของเขา ได้แก่ เศรษฐศาสตร์การเมือง การพัฒนาเศรษฐกิจ เศรษฐศาสตร์ระหว่างประเทศ และเศรษฐศาสตร์การเมืองของเอเชียตะวันออก เขาดูแลบล็อก รายงานจากแนวหน้าเศรษฐกิจ.
ZNetwork ได้รับทุนจากความมีน้ำใจของผู้อ่านเท่านั้น
บริจาค