인공지능(AI)은 어디에나 있는 것 같습니다. 기업은 웹페이지나 전화 시스템에서 강력한 AI 챗봇을 사용하여 고객 질문을 처리합니다. 뉴스룸과 잡지에서는 이를 사용하여 기사를 작성합니다. 영화 스튜디오에서는 이를 사용하여 영화를 제작합니다. 기술 회사에서는 이를 프로그래밍에 사용합니다. 학생들은 이를 사용하여 논문을 작성합니다. 그것은 마술처럼 보인다. 그리고 모든 것이 "클라우드에서" 발생한다고 가정하면 AI 기반 시스템이 환경에 좋다고 믿기 쉽습니다. 불행하게도 상황은 보이는 것과 다릅니다.
챗봇은 착취를 기반으로 구축되었으며 엄청난 양의 에너지를 사용하며 신뢰성이 떨어집니다. 그리고 그것이 정교하게 성장하고 어떤 측면에서 삶을 더 쉽게 만들어 주는 것을 상상하기 쉽지만, 기업은 결과가 사회적으로 이익이 될지 여부에 대한 관심 없이 수익을 창출하기 위해 수십억 달러를 창작물에 쏟아 붓고 있습니다. 간단히 말해서, 우리는 AI에 대한 기업의 관심을 진지하게 받아들이고 AI가 개발되고 사용되는 방식을 통제하는 데 도움이 될 수 있는 전략을 개발해야 합니다.
경주가 시작되었습니다
챗봇 혁명은 2022년 OpenAI의 ChatGPT 도입으로 시작되었습니다. ChatGPT는 인간과 같은 대화가 가능했으며 생성된 텍스트로 사용자 질문에 답하고 기사와 코드를 작성할 수 있었습니다. 무엇보다도 무료로 사용할 수 있었습니다.
ChatGPT에 대한 대중의 관심에 부응하여 다른 회사들도 곧 자체 AI 챗봇을 도입하기 시작했습니다. 오늘날 가장 크고 가장 널리 사용되는 것은 Google의 Gemini(이전 Bard)와 Microsoft의 Copilot입니다. 특정 비즈니스 요구 사항을 충족하도록 설계된 일부를 포함하여 다른 것들도 있습니다. 예를 들어, GitHub CoPilot은 소프트웨어 개발자가 코드를 생성하는 데 도움을 주고, Anthrophic의 Claude는 정보 검색 및 문서 요약을 위해 설계되었습니다.
그리고 경주는 계속해서 창조됩니다 다음 세대 더 많은 정보를 수집하고 더 빠르게 처리하며 더 자세하고 개인적인 응답을 제공할 수 있는 AI 시스템입니다. 골드만삭스에 따르면 경제, 미국의 AI 관련 투자는 향후 2.5년 동안 "GDP의 4~XNUMX%까지 최고조에 달할 수 있습니다".
챗봇에는 단어, 텍스트, 이미지, 오디오 및 온라인 행동에 대한 크고 다양한 데이터베이스는 물론 일반적인 사용 패턴에 따라 필요할 때 자료를 구성할 수 있는 정교한 알고리즘이 필요합니다. 질문이나 정보 요청이 주어지면 챗봇은 질문이나 요청의 단어 패턴과 관련된 데이터베이스의 자료를 식별한 다음 다시 알고리즘의 안내에 따라 데이터베이스에서 주어진 데이터를 가장 만족시키는 단어 또는 이미지 세트를 조립합니다. 제한 사항, 문의. 물론 패턴을 식별하고 대응을 구성하는 과정에는 엄청난 양의 에너지가 필요합니다.
챗봇이 아무리 대화적이고 지능적으로 들리더라도 Megan Crouse가 말했듯이 기억하는 것이 중요합니다. 설명즉,
“모델은 자신이 말하는 내용을 '알지' 못하지만, 훈련된 데이터 세트를 기반으로 어떤 기호(단어)가 연속해서 나올 가능성이 있는지는 알고 있습니다. ChatGPT, Google 경쟁사인 Bard 등 현 세대의 인공 지능 챗봇은 실제로 지능적으로 정보를 바탕으로 결정을 내리지 않습니다. 대신에 그들은 자연스러운 대화 과정에서 서로 옆에서 발견될 가능성이 있는 단어를 반복하는 인터넷의 앵무새입니다. 기본 수학은 모두 확률에 관한 것입니다.”
다양한 챗봇은 프로그래밍과 다양한 데이터 세트에 대한 교육을 받았기 때문에 서로 다른 결과를 생성합니다. 예를 들어 웹에서 사용 가능한 모든 공개 데이터를 스크랩하는 것 외에도 Gemini는 Google Apps의 데이터를 사용할 수 있고 Copilot은 Bing 검색 엔진에서 생성된 데이터를 사용할 수 있습니다.
챗봇은 출시 이후 여러 가지 업그레이드를 거쳤습니다. 각 세대에는 더 미묘한 연결을 만들고 질문이나 요청의 데이터를 통합하여 데이터베이스를 확장할 수 있는 더 복잡한 소프트웨어 패키지가 있습니다. 이러한 방식으로 챗봇은 사용을 통해 시간이 지남에 따라 학습/개선됩니다.
이러한 관점은 클라우드에서 일어나는 일에 대해 이야기할 수 있지만 프롬프트나 질문에 응답하는 챗봇의 능력은 기반에 확고히 뿌리를 둔 프로세스에 달려 있다는 사실을 강조합니다. 에서 말 기술 작가 Karen Hao의 글:
“AI에는 다른 기술과 마찬가지로 공급망이 있습니다. 이 기술을 만드는 데에는 데이터가 하나이고 계산 능력이나 컴퓨터 칩이 또 다른 입력이 있습니다. 그리고 둘 다 그들과 관련된 인적 비용이 많이 듭니다.”
공급망: 인간 노동
AI 시스템에는 데이터가 필요하며 데이터는 어떤 형태로든 사람으로부터 나옵니다. 따라서 기술 기업은 AI 시스템의 운영을 향상시키기 위해 지속적으로 새롭고 다양한 데이터를 찾고 있습니다. 우리는 온라인 블로그 및 웹 사이트 게시물, 출판된 서적 및 기사, 검색, 사진, 노래, 그림 및 비디오를 인터넷에서 자유롭게 스크랩하여 더 큰 이익을 추구하는 수익성이 높은 회사를 인수하는 데 도움을 주고 있습니다. 로렌 레퍼 역 노트,
“웹 크롤러와 스크래퍼는 로그인 페이지가 아닌 거의 모든 곳에서 데이터에 쉽게 액세스할 수 있습니다… 여기에는 인기 있는 사진 공유 사이트인 Flickr, 온라인 마켓플레이스, 유권자 등록 데이터베이스, 정부 웹페이지, Wikipedia, Reddit, 연구 저장소, 뉴스 매체에 있는 모든 것이 포함됩니다. 및 학술 기관. 또한 웹의 원래 위치에서 제거된 데이터가 포함되어 있는 불법 복제된 콘텐츠 편집물과 웹 아카이브도 있습니다. 그리고 스크랩된 데이터베이스는 사라지지 않습니다.”
실제로 스크랩된 자료의 상당 부분은 저작권이 있으며 허가 없이 가져갔습니다. 이에 대응하여 현재 많은 출판사, 작가, 예술가들이 도난을 막기 위해 노력하고 있습니다. 예를 들어, 2023년 XNUMX월 The New York Times는 다음과 같이 업데이트했습니다.서비스약관"~에 금지하다 "기계 학습 또는 인공 지능(AI) 시스템 교육을 포함하되 이에 국한되지 않는 모든 소프트웨어 프로그램" 개발에 텍스트, 사진, 이미지 및 오디오/비디오 클립을 사용하는 행위. 그러나 일부 주요 기업은 자료 사용에 대한 금전적 보상을 금지하거나 협상할 수 있는 영향력이나 법적 권한을 갖고 있는 반면, 대부분의 기업과 개인은 그렇지 않습니다. 결과적으로 그들은 여전히 “지적 재산권”를 무료로 가져와 기업의 수익 창출 활동을 위한 AI 교육 자료로 전환했습니다.
AI 데이터 수집과 관련된 개인 손실을 최소화하지 않으면 이 획득 방법에는 훨씬 더 큰 문제가 있습니다. 공용 인터넷을 긁어낸다는 것은 극한 증오 집단 구성원의 게시물과 글을 포함하여 과학, 역사, 정치, 인간 행동, 시사 문제에 대해 매우 다양한 관점과 이해가 포함된 자료를 사용하여 AI 챗봇을 훈련한다는 의미입니다. 그리고 문제가 있는 데이터는 가장 정교한 챗봇의 결과에도 쉽게 영향을 미칠 수 있습니다.
예를 들어, 기업에서 채용을 돕기 위해 챗봇을 점점 더 많이 사용하고 있습니다. 하지만 블룸버그통신은 발견, "가장 잘 알려진 생성 AI 도구는 이름을 기반으로 그룹에 불이익을 주는 편견을 체계적으로 생성합니다." 예를 들어, 자체 연구 발견 "Fortune 1000대 기업의 실제 재무 분석가 역할을 위해 동일한 자격을 갖춘 이력서 500개를 순위로 매기도록 XNUMX번 요청했을 때 ChatGPT는 흑인 미국인과 구별되는 이름이 있는 이력서를 선택할 가능성이 가장 낮았습니다."
챗봇은 또 다른 방식으로 인간 노동의 질에 의존합니다. 챗봇은 웹 크롤러와 스크레이퍼가 수집한 많은 데이터를 직접 사용할 수 없습니다. 조쉬 지에자 역 설명, "가장 인상적인 AI 시스템 뒤에도 사람이 있습니다. 데이터를 훈련하기 위해 데이터에 라벨을 붙이고 혼란스러울 때 데이터를 명확히 하는 수많은 사람들이 있습니다."
주요 AI 회사는 일반적으로 다른 소규모 회사를 고용하여 데이터 라벨링 프로세스에 필요한 작업자를 찾고 교육합니다. 그리고 이러한 하청업체는 주석자라고 불리는 직원을 남반구, 종종 네팔과 케냐에서 찾는 경우가 많습니다. 주석 프로세스와 주석이 추가되는 항목은 영업 비밀로 간주되기 때문에 주석 작성자는 최종 상사를 거의 알지 못하며 자신이 하는 일을 다른 사람, 심지어 동료와 논의하는 것이 발견되면 해고됩니다.
Dzieza는 챗봇이 수집된 데이터를 활용할 수 있도록 주석 작성자가 수행해야 하는 몇 가지 작업에 대해 설명합니다. 예를 들어 주석자는 비디오 및 사진의 항목에 레이블을 지정합니다. 이는 AI 시스템이 특정 픽셀 구성을 특정 항목이나 감정과 연결할 수 있도록 보장하기 위해 수행되어야 합니다. 자율 주행 차량용 AI 시스템을 구축하는 회사에는 거리나 고속도로 장면을 촬영한 비디오에서 모든 중요한 항목을 식별하기 위한 주석자가 필요합니다. 이는 "모든 차량, 보행자, 자전거 타는 사람 등 운전자가 알아야 할 모든 것을 프레임별로, 가능한 모든 카메라 각도에서 식별"하는 것을 의미합니다. Dzieza의 보고에 따르면 이는 “어렵고 반복적인 작업입니다. 몇 초 분량의 영상에 주석을 추가하는 데 10시간이 걸렸으며, 이에 대해 [주석 작성자]는 약 XNUMX달러를 받았습니다.”
이런 종류의 일은 비록 임금은 낮지만 매우 중요합니다. 주석 프로세스가 제대로 수행되지 않거나 데이터베이스가 제한되면 시스템이 쉽게 실패할 수 있습니다. 적절한 사례: 2018년에 한 여성이 자율주행 Uber 차량에 치여 사망했습니다. AI 시스템은 "자전거 타는 사람과 보행자를 피하도록 프로그래밍되었지만 자전거를 타고 길을 건너는 사람을 어떻게 해야 할지 몰랐기 때문에" 실패했습니다.
소셜 미디어 사진의 항목에 라벨을 지정하기 위해 주석 작성자도 고용됩니다. 여기에는 인간이 입을 수 있는 눈에 보이는 모든 셔츠를 식별하고 라벨을 붙이는 작업이 포함될 수 있습니다. 이를 위해서는 "폴로 셔츠, 야외에서 입는 셔츠, 선반에 걸려 있는 셔츠" 등인지 기록해야 합니다.
다른 작업에는 감정에 라벨을 붙이는 작업이 포함됩니다. 예를 들어, 일부 주석자는 주석자가 찍은 셀카를 포함하여 얼굴 사진을 보고 대상의 인지된 감정 상태에 레이블을 지정하도록 고용됩니다. 다른 사람들은 피자 체인점이 소유한 매장에 전화를 걸어 주문을 하는 고객의 감정에 라벨을 붙이기 위해 고용되었습니다. 또 다른 직업에는 Reddit 게시물의 감정에 라벨을 붙이는 주석자가 있습니다. 이 작업은 주로 미국 인터넷 문화에 익숙하지 않기 때문에 한 인도 근로자 그룹에게는 어려운 일이었습니다. 하청업체는 작업을 검토한 후 게시물의 약 30%에 라벨이 잘못 지정되었다고 결정했습니다.
아마도 AI 교육 작업에서 가장 빠르게 성장하는 부문은 챗봇과의 직접적인 인간 상호 작용과 관련이 있을 것입니다. 주제를 논의하기 위해 사람들이 고용되고 있으며 챗봇은 각 대화에 대해 두 가지 다른 응답을 제공하도록 프로그래밍되어 있습니다. 그런 다음 고용된 "토론자"는 자신이 "최적"이라고 생각하는 응답을 선택해야 합니다. 그런 다음 이 정보는 시스템에 다시 공급되어 좀 더 "인간적인" 소리를 내는 데 도움이 됩니다.
간단히 말해서, AI 시스템은 인간의 작업에 크게 의존합니다. 이것은 인간의 편견이나 감정에 영향을 받지 않고 작동하는 마법 시스템이 아닙니다. 그리고 그들의 활동은 상상의 구름 속에서 일어나지 않습니다. 이 점은 운영에 필요한 인프라를 고려할 때 더욱 분명해집니다.
공급망: 데이터 센터
AI의 성장은 데이터 센터의 대규모 구축, 컴퓨터와 서버, 과열을 방지하기 위해 지속적으로 작동해야 하는 에어컨을 가동하기 위한 전기 수요가 꾸준히 증가함에 따라 뒷받침되었습니다. 사실로, “이제 클라우드는 항공 산업보다 탄소 배출량이 더 많습니다. 단일 데이터 센터는 50,000만 가구의 전력을 소비할 수 있습니다.”
에 따르면 국제에너지기구(International Energy Agency)에 따르면 미국에서 운영되는 2,700개의 데이터 센터는 4년 미국 전체 에너지 사용량의 2022% 이상을 차지했습니다. 그리고 그 점유율은 6년까지 2026%에 이를 것으로 예상됩니다. 물론 이러한 추정치는 대략적입니다. 왜냐하면 주요 기술 회사들은 마음 내키지 않는 관련 정보를 공유하고 AI 시스템이 지속적으로 새로운 데이터에 대해 훈련을 받고 더 많은 기술로 업그레이드되기 때문에 활동당 에너지 사용량이 더 많아집니다.
지금도 데이터 센터의 에너지 수요가 미국 전력망에 부담을 주고 있다는 징후가 있습니다. 워싱턴 포스트처럼 노트: “북 버지니아에는 계획 중이거나 건설 중인 모든 새로운 데이터 센터를 지원하기 위해 여러 개의 대규모 원자력 발전소가 필요합니다. 더운 여름날 전력난이 일상화되는 텍사스도 같은 딜레마에 직면해 있다”고 말했다.
태평양 북서부 지역도 비슷한 문제에 직면해 있습니다. 다음과 같이 오리건 신문은 다음과 같이 지적합니다.
“[2023년] 여름에 발표된 세 가지 새로운 예측에 따르면 오리건 전역에 확산되고 있는 데이터 센터는 지역 유틸리티 및 전력 기획자가 예상했던 것보다 훨씬 더 많은 전력을 소비할 것입니다.
“이는 북서부 전력망에 더 많은 압력을 가하고 있으며 오레곤주가 불과 2년 전에 수립한 야심찬 청정 에너지 목표를 달성할 수 있는지에 대한 새로운 의구심을 불러일으키고 있습니다…
“본네빌 전력청(Bonneville Power Administration)은 2041년까지 오레곤과 워싱턴에 있는 데이터 센터의 전력 수요가 2,715배 증가하여 평균 XNUMXMW에 이를 것으로 예상하고 있습니다. 이는 오늘날 이 두 주 전체 가구의 XNUMX분의 XNUMX에 전력을 공급하기에 충분합니다.”
빠르게 증가하는 AI 수요로 인해 이러한 급증하는 에너지 수요는 지구 온난화에 맞서기 위한 우리의 노력에 큰 위협이 됩니다. 예를 들어, 전력 문제로 인해 캔자스, 네브래스카, 위스콘신, 사우스 캐롤라이나는 이미 석탄 발전소 폐쇄를 연기했습니다. AI로 인한 기후 위협에 관한 여러 기후 행동 그룹의 2024년 보고서 finds 국제 에너지 기구(International Energy Agency)가 향후 80년에 걸쳐 데이터 센터의 에너지 사용이 두 배로 증가하면 지구 난방 배출량이 XNUMX% 증가할 것으로 예상됩니다. 이는 생성된 요구 사항이 아닌 실제 요구 사항을 충족하는 능력에 관계없이 출시되고 있는 새로운 AI 서비스에 대해 지불해야 하는 심각한 대가입니다.
“설득력이 없고 진실하지 않다”
분명히 주요 기술 기업들은 AI가 엄청난 이익을 창출할 것이라고 확신하고 있습니다. 그리고 그들은 아무 것도 우연에 맡기지 않고 우리가 그것을 원하는지 고려할 기회를 갖기 전에 그것을 우리 삶에 심기 위해 최선을 다하고 있습니다. 이미 AI 시스템은 건강 관리 개선, 정신 건강 조언 제공, 법적 조언 제공, 학생 교육, 개인 의사 결정 개선, 직장 효율성 향상 등을 위한 방법으로 홍보되고 있습니다.
AI 시스템은 입력된 데이터와 이를 사용하기 위해 작성된 소프트웨어만큼만 우수하다는 사실이 잊혀진 것 같습니다. 즉, 그들의 작동은 인간에 달려 있습니다. 그리고 아마도 더 중요한 것은 AI 시스템이 훈련받은 데이터를 어떻게 사용하는지 실제로 아는 사람이 아무도 없다는 것입니다. 즉, 그들의 '추론 과정'을 추적하는 것은 불가능하다. 이러한 시스템이 심각하게 과매도되고 있다는 경고 신호가 이미 눈에 보입니다.
예를 들어, 2022년에 한 고객이 사별 요금을 받는 방법을 알아보기 위해 에어캐나다에 문의했습니다. 항공사의 고객 서비스 AI 기반 챗봇은 그에게 여행에 대한 환불을 받으려면 항공권이 발행된 지 90일 이내에 양식을 작성하기만 하면 된다고 말했습니다. 그러나 여행을 마친 후 양식을 제출하자 항공사 직원은 여행 전에 양식을 작성해야 하기 때문에 요금 감면은 없을 것이라고 말했다. 그가 봇이 말한 내용을 촬영한 스크린샷을 항공사에 보여주자 항공사는 봇이 말한 내용에 대해 책임을 지지 않는다고 반박했다.
고객은 Air Canada를 상대로 소송을 제기하여 승소했습니다. 판사 유명한 그 :
“에어캐나다(Air Canada)는 챗봇을 포함하여 대리인, 직원 또는 대표자가 제공한 정보에 대해 책임을 질 수 없다고 주장합니다. 왜 그렇게 생각하는지 설명하지 않습니다. 실제로 에어캐나다는 챗봇이 자체 행동을 책임지는 별도의 법인임을 제안합니다. 이는 놀라운 제출입니다.”
기업이 원하는 경우 자신의 행동에서 스스로를 분리할 수 있도록 챗봇을 별도의 법인으로 선언하도록 실제로 모색할 수 있는지 여부는 제쳐두고, 항공사는 챗봇이 잘못된 정보를 제공한 이유를 아직 설명하지 않았습니다.
그 다음에는 Microsoft의 도움으로 개발된 NYC 챗봇이 있습니다. 이 챗봇은 기업이 시 규칙과 규정을 최신 상태로 유지하는 데 도움이 되는 "원스톱 상점"으로 시에서 홍보했습니다. 다음은 일부입니다. 예 문의에 대한 응답으로 제공되는 의심스러운 조언:
“챗봇은 성희롱에 대해 불평하거나, 임신 사실을 알리지 않거나, 험상 자르기를 거부하는 직원을 고용주가 해고하는 것이 합법적이라고 거짓으로 제안했습니다…
"레스토랑에서 설치류가 먹은 치즈를 제공할 수 있는지 묻는 질문에 '예, 쥐에게 물린 치즈가 있어도 고객에게 제공할 수 있습니다'라고 답한 다음 '손상 정도를 평가하는 것이 중요하다'고 덧붙였습니다. 쥐로 인해 발생'하고 '고객에게 상황을 알립니다'”
아마도 놀라운 일은 아니지만 Microsoft와 NYC 시장은 이러한 문제가 결국 수정될 것이라고 답했습니다. 실제로 그들은 사용자가 오류를 지적함으로써 필요한 시스템 미세 조정 속도를 높일 수 있다고 덧붙였습니다.
이런 종류의 문제는 심각하기는 하지만 AI의 '환각' 문제에 비하면 아무것도 아닙니다. 환각은 AI 시스템이 이름, 날짜, 서적, 법적 사건, 의학적 설명, 심지어 역사적 사건까지 포함할 수 있는 정보를 조작하는 경우입니다. 예를 들어, 변호사가 법원 서류에서 언급한 사건을 챗봇이 발명한 여러 법적 사건이 있었습니다.
적절한 사례: 2023년 XNUMX월 원고를 대리하는 변호사 케이스 콜롬비아 항공사를 상대로 한 소송과 관련하여 챗봇이 "발견한" 6가지 지원 사례가 포함된 브리핑을 제출했습니다. 불행히도 이러한 사례는 존재하지 않았습니다. 일부는 존재하지 않는 항공사를 언급하기도 했습니다. 판사는 사건을 기각하고 허위 인용을 사용한 변호사들에게 벌금을 부과했습니다. 변호사들은 자신들이 악의로 행동했다는 판사의 주장에 동의하지 않고 변호에서 이렇게 말했습니다. “우리는 기술의 일부가 사건을 완전히 구성할 수 있다는 것을 믿지 못한 선의의 실수를 저질렀습니다.
가장 정교한 챗봇이라도 환각을 겪을 수 있습니다. 다음날 열리는 2024년 슈퍼볼 베팅 확률에 대해 물었을 때 Google의 챗봇은 발표 샌프란시스코 49ers가 캔자스 시티 치프스를 34대 28로 이기면서 Superbowl이 이미 열렸기 때문에 베팅하기에는 너무 늦었습니다. 여기에는 일부 플레이어 통계도 포함되었습니다. 경기는 캔자스시티의 승리로 끝났다. 마이크로소프트의 챗봇도 게임이 아직 플레이되지 않았는데도 게임이 끝났다고 주장하는 동일한 작업을 수행했습니다. 그러나 Kansas City Chiefs가 승리했다고 선언했습니다.
이제 의학적 조언을 제공하는 챗봇이 환각을 겪는 경우 비용이 얼마나 될지 상상해 보세요. 미군은 위협 식별, 무인 항공기 유도, 정보 수집, 전쟁 계획 등 다양한 방식으로 AI 기술의 활용을 급속히 늘리고 있다. 시스템의 부적절하거나 불완전한 데이터 교육 또는 더 심각한 환각으로 인해 발생할 수 있는 잠재적인 재난을 상상해 보십시오. 분명한 점은 이러한 시스템이 여러 가지 이유로 완벽하지 않다는 것입니다. 내부 Microsoft 문서는 다음과 같은 경우에 이를 가장 잘 포착합니다. 선언 새로운 AI 시스템은 "진실이 아닌 설득력을 갖도록 구축되었습니다".
앞으로 해야 할 일은 무엇입니까?
지금까지 AI에 대한 대중의 우려는 AI 시스템에 의한 개인 데이터의 무단 사용에 주로 집중되어 있었습니다. 사람들은 자신의 자료를 무단으로 웹에서 스크랩하는 것으로부터 보호받기를 원합니다. 그리고 그들은 AI 시스템과의 상호 작용이 사기, 차별 또는 괴롭힘에 노출될 수 있는 데이터 생성 활동이 되는 것을 원하지 않습니다. 현재 다양한 주정부와 지방자치단체가 치고는 이를 달성하는 방법. 그리고 2023년 바이든 대통령은 연방정부의 명령을 발표했습니다. 행정 명령 이는 새로운 "기본" IA 시스템이 공개되기 전에 결함에 대해 적절하게 테스트되었는지 확인하기 위한 것입니다. 이는 유용한 첫 번째 단계입니다.
AI 활용을 둘러싼 가장 치열한 투쟁은 직장에서 벌어지고 있다. 기업은 AI 시스템을 사용하여 탭 노동자 조직화에 관해, 모니터 작업자 성과 및 가능한 경우 제거하다 노동자의. 당연히 노조에 가입한 근로자들은 기업의 AI 시스템 사용을 제한하자고 반격하기 시작했습니다.
예를 들어, 약 12,000명의 시나리오 작가를 대표하는 미국작가길드(WGA)는 유니버설, 파라마운트, 월트 디즈니, 넷플릭스, 아마존, 애플 등 여러 주요 제작사를 2023년 XNUMX개월 동안 임금 인상을 요구하며 파업을 벌였습니다. 고용 보호, AI 사용 제한. LA 타임스의 칼럼니스트인 브라이언 머천트(Brian Merchant)는 다음과 같이 말했습니다. 기술하다:
“작가들이 스튜디오와 처음 협상을 시작했을 때 ChatGPT와 같은 생성 AI 사용에 대한 우려는 염두에 두지도 않았습니다. WGA의 첫 번째 제안에서는 스튜디오가 원본 대본을 생성하기 위해 AI를 사용하지 않을 것이라고 간단히 명시했으며, 스튜디오가 위험 신호를 보내는 것을 단호하게 거부한 경우에만 가능했습니다.
“그때 작가들은 스튜디오가 AI를 사용하는 것에 대해 진지하게 생각하고 있다는 것을 깨달았습니다. 완성된 대본을 생성하는 것이 아니라면 양측 모두 현 시점에서는 불가능하다는 것을 알고 있었습니다. 그런 다음 작가에 대한 영향력으로 위협이자 제안을 낮추는 재작성을 정당화하는 수단으로 사용했습니다. 수수료. 그때 WGA가 모래 위에 선을 그었고 AI를 비난하는 피켓 라인의 표지판이 소셜 미디어에서 입소문이 나고 갈등을 선전하는 헤드라인이 이와 같은 신문을 장식하는 것을 보기 시작했습니다.”
실제로 AI 시스템 사용에 대한 통제권을 확보해야 할 필요성에 대한 인식이 높아지면서 작가조합은 파업 기간 동안 디지털 미디어 상점에 근무하는 직원을 포함해 관련 산업 종사자들을 대상으로 AI에 관한 여러 차례 회의를 열었습니다. 많은 참석자들이 눈에 띄는 시나리오 작가들을 지지하는 피켓 라인에 섰습니다.
파업은 작가들에게 큰 이득을 안겨주었다. AI 측면에서 새로운 계약은 스크립트나 소스 자료를 작성하거나 다시 작성하기 위해 대규모 언어 모델 AI 시스템을 사용하는 것을 금지합니다. 반면에 작가는 원할 경우 이를 사용할 수 있습니다. 이 계약은 또한 AI 시스템을 훈련하기 위해 작가의 자료를 사용하는 것을 배제합니다. 한 분석가로서 댓글, “ChatGPT를 통해 첫 번째 초안을 작성한 다음 재작성 비용을 낮추기 위해 작가에게 넘겨줄 것이라는 두려움이 사라졌습니다. 이는 근로자와 관련된 AI의 지표를 정하는 최초의 단체 교섭 협약 중 하나일 수 있습니다.”
영화배우길드-미국 텔레비전 및 라디오 예술가 연맹(SAG-AFTRA)은 WGA 파업이 시작된 지 두 달 만에 주요 영화 및 TV 제작자를 상대로 파업을 시작했습니다. 당연하게도 AI 정책은 파업 결정을 내리게 된 주요 쟁점 중 하나였습니다. 아마도 가장 중요한 것은 배우들일 것이다. 성공한 생산자들이 향후 AI 사용에 대해 협상하도록 강요하는 새로운 계약을 성사시키는 것입니다.
예를 들어, 합의에 따르면 제작자가 "합성 연기자"("식별 가능한 자연 연기자로 인식할 수 없는 디지털 방식으로 생성된 자연스러워 보이는 개인")를 사용할 계획인 경우 이를 통보하고 이를 사용하지 않기로 한 결정에 대해 노동조합과 교섭해야 합니다. 노조에 수수료를 지불할 가능성이 있는 타고난 성과자를 고용합니다. 제작자가 "인식 가능한 합성 연기자"(자연 연기자로 인식될 수 있는 디지털 방식으로 생성된 자연스러운 모습의 개인)를 사용하려는 경우 먼저 연기자와 협상하고 동의를 얻어야 합니다.
다른 근로자들도 자신의 직업을 보호하고 전문적 기준을 지키기 위해 AI 기술 사용에 대해 상사와 열심히 협상하고 있습니다. 기자. 이러한 노동 투쟁은 AI 사용에 필요한 가드레일을 개발하는 데 중요한 시작입니다. 이는 의료 시스템, 교육 기관, 교통, 뉴스 보도, 공공 기관 및 공급업체와의 커뮤니케이션에서 인간 관계와 인간 행위자를 감소시키기 위해 AI 기술을 사용하려는 기업의 추진에 맞서 보다 광범위한 노동 공동체 동맹을 구축할 수 있는 토대가 될 수 있습니다. 상품과 서비스 목록이 계속됩니다. 근로자들이 AI 기술과 관련된 모든 비용과 이점을 정확하게 평가할 수 있도록 과대 광고를 꿰뚫어 볼 수 있도록 도울 수 있다면 우리의 성공 가능성은 크게 높아질 것입니다. •
Martin Hart-Landsberg는 오레곤 주 포틀랜드에 위치한 Lewis and Clark College의 경제학 명예 교수입니다. 사회과학연구소 겸임연구원, 경상대학교, 대한민국. 그의 강의 및 연구 분야에는 정치경제학, 경제 발전, 국제경제학, 동아시아의 정치경제학이 포함됩니다. 그는 블로그를 운영하고 있다 경제 전선의 보고서.
ZNetwork는 독자들의 관대함을 통해서만 자금을 조달합니다.
후원