A intelixencia artificial (IA) parece estar en todas partes. As empresas usan poderosos chatbots de intelixencia artificial nas súas páxinas web ou sistemas telefónicos para xestionar as preguntas dos clientes. As redaccións e as revistas utilízanas para escribir historias. Os estudos cinematográficos utilízanos para producir películas. As empresas tecnolóxicas úsanos para programar. Os alumnos utilízanos para escribir traballos. Parece maxia. E con todo o que supostamente sucede "na nube", é fácil crer que os sistemas alimentados por intelixencia artificial son bos para o medio ambiente. Por desgraza, as cousas non son como parecen.
Os chatbots están construídos sobre a explotación, usan grandes cantidades de enerxía e están lonxe de ser fiables. E aínda que é fácil imaxinalos crecendo en sofisticación e facendo a vida máis fácil nalgúns aspectos, as empresas están a verter miles de millóns de dólares na súa creación para obter beneficios sen preocuparse por se os resultados serán socialmente beneficiosos. En resumo, debemos tomar en serio o interese corporativo pola IA e desenvolver estratexias que nos axuden a controlar como se desenvolve e usa a IA.
A Carreira está en marcha
A revolución dos chatbots comezou en 2022 coa introdución de ChatGPT por parte de OpenAI. ChatGPT era capaz de conversar de xeito humano e podía responder ás preguntas dos usuarios con texto xerado, así como escribir artigos e código. O mellor de todo é que era gratuíto.
Outras empresas, respondendo ao interese público en ChatGPT, pronto comezaron a introducir os seus propios chatbots de intelixencia artificial. Os máis grandes e utilizados hoxe en día son Gemini de Google (antes Bard) e Copilot de Microsoft. Tamén hai outros, incluídos algúns deseñados para satisfacer necesidades empresariais específicas. Por exemplo, GitHub CoPilot traballa para axudar aos desenvolvedores de software a crear código e Claude de Anthrophic foi deseñado para atopar información e resumir documentos.
E a carreira segue creando seguinte xeración Sistemas de IA que poden captar máis información, procesala máis rápido e proporcionar respostas persoais máis detalladas. Segundo Goldman Sacks economistas, o investimento relacionado coa intelixencia artificial nos Estados Unidos "podería alcanzar un máximo de 2.5 a 4 por cento do PIB" durante a próxima década.
Os chatbots necesitan unha base de datos grande e diversa de palabras, textos, imaxes, audio e comportamento en liña, así como algoritmos sofisticados que lles permitan organizar o material cando sexa necesario de acordo cos patróns de uso comúns. Cando se lles fai unha pregunta ou solicitude de información, os chatbots identifican na súa base de datos material relacionado co patrón de palabras da pregunta ou solicitude e, a continuación, ensamblan, guiados de novo por algoritmos, un conxunto de palabras ou imaxes da súa base de datos que mellor satisfaga os datos dados. limitacións, a investigación. Por suposto, o proceso de identificación de patróns e construción de respostas leva enormes cantidades de enerxía.
Non importa o quão conversacional e intelixente poida soar un chatbot, é importante lembralo, como Megan Crouse explica, que:
"O modelo non 'sabe' o que está dicindo, pero si sabe que símbolos (palabras) son susceptibles de vir un tras outro en función do conxunto de datos no que foi adestrado. A actual xeración de chatbots de intelixencia artificial, como ChatGPT, o seu rival de Google Bard e outros, non toman realmente decisións informadas de forma intelixente; en cambio, son os papagaios de Internet, que repiten palabras que é probable que se atopen un ao lado do outro no curso da fala natural. As matemáticas subxacentes son todas as probabilidades".
Os diferentes chatbots producirán resultados diferentes pola súa programación e porque foron adestrados en diferentes conxuntos de datos. Por exemplo, ademais de raspar os datos públicos dispoñibles na web, Gemini pode utilizar os datos das súas aplicacións de Google mentres Copilot utiliza os datos xerados polo seu buscador Bing.
Os chatbots pasaron por unha serie de actualizacións desde a súa introdución. Cada xeración ten un paquete de software máis complexo que lle permite facer conexións máis matizadas así como ampliar a súa base de datos incorporando datos de preguntas ou solicitudes feitas. Deste xeito, os chatbots aprenden/melloran co paso do tempo mediante o uso.
Esta perspectiva destaca o feito de que, aínda que podemos falar sobre as cousas que suceden na nube, a capacidade dos chatbots para responder a solicitudes ou preguntas depende de procesos que estean firmemente arraigados no chan. No palabras da escritora de tecnoloxía Karen Hao:
“A IA ten unha cadea de subministración como calquera outra tecnoloxía; hai entradas que entran na creación desta tecnoloxía, sendo unha delas os datos, e outra a potencia computacional ou os chips informáticos. E ambos teñen moitos custos humanos asociados".
A cadea de subministración: traballo humano
Os sistemas de IA necesitan datos e os datos proceden de persoas dunha forma ou doutra. Polo tanto, as empresas tecnolóxicas buscan continuamente datos novos e diversos para mellorar o funcionamento dos seus sistemas de IA. Coas nosas publicacións de blogs e sitios web en liña, libros e artigos publicados, buscas, fotografías, cancións, imaxes e vídeos extraídos libremente de Internet, estamos axudando a suscribir empresas altamente rendibles na súa procura de obter aínda maiores beneficios. Como Lauren Leffer notas,
"Os rastreadores web e os scrapers poden acceder facilmente aos datos desde case calquera lugar que non estea detrás dunha páxina de inicio de sesión... Isto inclúe calquera cousa do popular sitio para compartir fotografías Flickr, mercados en liña, bases de datos de rexistro de votantes, páxinas web do goberno, Wikipedia, Reddit, repositorios de investigación, medios de noticias. e institucións académicas. Ademais, hai compilacións de contido pirateado e arquivos web, que moitas veces conteñen datos que desde entón foron eliminados da súa localización orixinal na web. E as bases de datos raspadas non desaparecen".
De feito, unha parte importante do material rascado estaba protexido por dereitos de autor e tomado sen permiso. En resposta, unha serie de editoriais, escritores e artistas agora buscan deter o roubo. Por exemplo, en agosto de 2023, The New York Times actualizou o seu "Condicións de servizoA prohibido calquera uso do seu texto, fotos, imaxes e clips de audio/vídeo no desenvolvemento de "calquera programa de software, incluíndo, pero non limitado a, adestramento dun sistema de aprendizaxe automática ou intelixencia artificial (IA)". Pero aínda que algunhas grandes empresas teñen a influencia ou o poder legal para prohibir ou negociar unha compensación financeira polo uso do seu material, a maioría das empresas e dos individuos non o fan. Como resultado, aínda corren o risco de ter o seu "propiedade intelectual” sacado deles de xeito gratuíto e convertido en material de formación en IA ao servizo da actividade de gañar cartos corporativos.
Sen minimizar as perdas persoais asociadas á recollida de datos da IA, hai un problema moito maior con este método de adquisición. Despegar a Internet pública significa que os chatbots de IA están a ser adestrados utilizando material que inclúe perspectivas e comprensións moi diferentes sobre a ciencia, a historia, a política, o comportamento humano e os acontecementos actuais, incluíndo publicacións e escritos de membros de grupos de odio extremo. E os datos problemáticos poden influír facilmente na saída dos chatbots máis sofisticados.
Por exemplo, os chatbots son cada vez máis utilizados polas empresas para axudarlles na contratación de emprego. Con todo, como Bloomberg News descuberto, "a ferramenta de intelixencia artificial xerativa máis coñecida produce sistemáticamente prexuízos que prexudican aos grupos en función dos seus nomes". Por exemplo, o seu propio estudo atopa que "Cando se lle preguntou 1000 veces que clasificara oito currículos igualmente cualificados para un verdadeiro rol de analista financeiro nunha empresa Fortune 500, ChatGPT tiña menos probabilidades de escoller o currículo cun nome distinto dos negros americanos".
Os chatbots dependen da calidade do traballo humano doutro xeito. Os chatbots non poden facer uso directo de gran parte dos datos recompilados polos rastreadores web e raspadores. Como Josh Dzieza explica, "Detrás incluso do sistema de IA máis impresionante hai persoas: un gran número de persoas etiquetan datos para adestralos e aclaran os datos cando se confunden".
As principais empresas de IA xeralmente contratan outras empresas máis pequenas para atopar e formar aos traballadores necesarios para o proceso de etiquetado de datos. E estes subcontratistas, a maioría das veces, atopan aos seus traballadores, chamados anotadores, no Sur Global, moitas veces en Nepal e Kenia. Debido a que o proceso de anotación, así como os elementos que se anotan, considéranse segredos comerciais, os anotadores raramente coñecen ao seu xefe final e serán despedidos se se atopan para discutir o que fan con outros, incluso cos seus compañeiros de traballo.
Dzieza describe algúns dos traballos que deben facer os anotadores para que os chatbots fagan uso dos datos recompilados para eles. Por exemplo, os anotadores etiquetan elementos en vídeos e fotos. Isto debe facerse para garantir que os sistemas de IA poderán conectar configuracións específicas de píxeles con elementos ou emocións específicas. As empresas que constrúen sistemas de intelixencia artificial para vehículos autónomos necesitan anotadores para identificar todos os elementos críticos en vídeos tomados de escenas de rúas ou estradas. Isto significa "identificar todos os vehículos, peóns, ciclistas, calquera cousa que un condutor deba ter en conta: fotograma por fotograma e desde todos os ángulos de cámara posibles". Segundo informa Dzieza, trátase dun “traballo difícil e repetitivo. Unha imaxe de varios segundos tardou oito horas en anotarse, polo que [o anotador] recibiu uns 10 dólares".
Este tipo de traballo, aínda que é pouco remunerado, é fundamental. Se o proceso de anotación está mal feito ou a base de datos é limitada, o sistema pode fallar facilmente. Un caso concreto: en 2018, unha muller foi atropelada e asasinada por un coche de Uber que conducía por si mesmo. O sistema de intelixencia artificial fallou porque, aínda que "estaba programado para evitar ciclistas e peóns, non sabía que facer con alguén que cruzase en bicicleta pola rúa".
Tamén se contratan anotadores para etiquetar elementos nas fotos das redes sociais. Isto pode implicar identificar e etiquetar todas as camisas visibles que poidan levar os humanos. Isto requiriría rexistrar se eran "polos, camisas que se usan ao aire libre, camisas colgadas nun estante", etc.
Outros traballos implican etiquetar as emocións. Por exemplo, algúns anotadores son contratados para mirar imaxes de caras, incluídas as selfies tomadas polos anotadores, e etiquetar o estado emocional percibido do suxeito. Outros son contratados para etiquetar as emocións dos clientes que chamaron en pedidos a tendas propiedade dunha cadea de pizzas. Outro traballo ten anotadores que etiquetan as emocións das publicacións de Reddit. Esta tarefa resultou un reto para un grupo de traballadores indios, principalmente pola súa falta de familiaridade coa cultura de Internet dos EUA. O subcontratista decidiu, tras unha revisión do seu traballo, que preto do 30 por cento dos postos foran etiquetados incorrectamente.
Quizais o segmento de máis rápido crecemento do traballo de adestramento en IA implica a interacción humana directa cun chatbot. Están contratando persoas para discutir temas e o chatbot está programado para dar dúas respostas diferentes a cada conversa. O "interlocutor" contratado debe seleccionar a resposta que considere "mellor". Esta información envíase de novo ao sistema para axudarlle a soar máis "humano".
En resumo, os sistemas de IA dependen en gran medida do traballo dos humanos. Estes non son sistemas máxicos, que operan sen ser afectados por prexuízos ou emocións humanas. E a súa actividade non se desenvolve nalgunha nube imaxinaria. Este punto posterior faise aínda máis evidente cando consideramos a infraestrutura necesaria para o seu funcionamento.
Supply Chain: Centros de datos
O crecemento da intelixencia artificial foi apoiado por unha ampla creación de centros de datos e unha demanda de electricidade en constante aumento para facer funcionar os ordenadores e servidores que albergan, así como os acondicionadores de aire que deben funcionar continuamente para evitar o seu sobrequecemento. De feito, "A nube ten agora unha pegada de carbono maior que a industria aérea. Un único centro de datos pode consumir a electricidade equivalente a 50,000 fogares".
Segundo á Axencia Internacional da Enerxía, os 2,700 centros de datos que operan nos EE. UU. foron responsables de máis do 4 por cento do uso total de enerxía do país en 2022. E é probable que a súa participación alcance o 6 por cento en 2026. Por suposto, tales estimacións son aproximadas, tanto porque as principais empresas tecnolóxicas son sen querer para compartir información relevante e porque os sistemas de IA están continuamente adestrados en novos datos e actualizados con máis habilidades, o que significa un maior uso de enerxía por actividade.
Aínda agora, hai sinais de que as demandas enerxéticas dos centros de datos están gravando a rede eléctrica dos Estados Unidos. Como o Washington Post notas: “O norte de Virxinia necesita o equivalente a varias grandes centrais nucleares para dar servizo a todos os novos centros de datos planificados e en construción. Texas, onde a escaseza de electricidade xa é rutina nos días de calor do verán, enfróntase ao mesmo dilema".
O noroeste do Pacífico enfróntase a un desafío similar. Como o Oregonian O xornal sinala:
"Os centros de datos que proliferan en Oregón consumirán drasticamente máis electricidade do que as empresas de servizos rexionais e os planificadores de enerxía previran, segundo tres novas previsións publicadas no verán [2023].
"Isto está a poñer máis presión sobre a rede eléctrica do noroeste e xerar novas dúbidas sobre se Oregón pode cumprir os ambiciosos obxectivos de enerxía limpa que o estado estableceu hai só dous anos...
"A Administración eléctrica de Bonneville espera agora que, para 2041, as demandas de electricidade dos centros de datos en Oregón e Washington crezan dúas veces e media, obtendo unha media de 2,715 megavatios. Iso é suficiente para alimentar hoxe un terzo de todas as vivendas destes dous estados".
Esta crecente demanda de enerxía, impulsada en gran parte polas crecentes demandas da IA, representa unha ameaza importante para os nosos esforzos por combater o quecemento global. Por exemplo, os problemas de enerxía xa levaron a Kansas, Nebraska, Wisconsin e Carolina do Sur a atrasar o peche das centrais de carbón. Un informe de 2024 de varios grupos de acción climática sobre a ameaza climática que supón a IA atopa que a duplicación do uso de enerxía dos centros de datos, que a Axencia Internacional da Enerxía estima que se producirá durante os próximos dous anos, levará a un aumento do 80 por cento das emisións do quecemento do planeta. Este é un prezo severo a pagar polos novos servizos de IA que se están a lanzar independentemente da súa capacidade para satisfacer as necesidades reais, en lugar de creadas.
"Persuasivo Non Verdadero"
Está claro que as principais empresas tecnolóxicas apostan por que a IA lles xerará enormes beneficios. E sen deixar nada ao azar, están facendo todo o posible para incorporalos ás nosas vidas antes de que teñamos a oportunidade de considerar se os queremos. Xa se están a promover os sistemas de IA como unha forma de mellorar a atención sanitaria, proporcionar consellos sobre saúde mental, asesorar xurídicos, educar aos estudantes, mellorar a nosa toma de decisións persoais, aumentar a eficiencia no lugar de traballo, a lista continúa.
Aparentemente esquecido é o feito de que os sistemas de IA só son tan bos como os datos introducidos e o software escrito para usalos. Noutras palabras, o seu funcionamento depende dos humanos. E, quizais aínda máis importante, ninguén sabe realmente como os sistemas de IA usan os datos nos que foron adestrados. Noutras palabras, é imposible rastrexar o seu "proceso de razoamento". Xa son visibles os sinais de advertencia de que estes sistemas están sendo seriamente sobrevendidos.
Por exemplo, en 2022 un cliente púxose en contacto con Air Canada para saber como conseguir unha tarifa de duelo. O chatbot do servizo de atención ao cliente da compañía aérea, impulsado por intelixencia artificial, díxolle que só necesitaba completar un formulario dentro dos 90 días seguintes ao billete emitido para obter un reembolso da súa viaxe. Pero cando enviou o formulario despois de completar a súa viaxe, o persoal da aerolínea díxolle que non ía haber redución de tarifa porque o formulario tiña que ser cuberto antes da viaxe. Cando lle mostrou á compañía aérea as capturas de pantalla que fixo do que lle dixo o bot, a aerolínea respondeu que non era responsable do que dixo o bot.
O cliente demandou a Air Canada e gañou. O xuíz notado que:
"Air Canada argumenta que non se fai responsable da información proporcionada por un dos seus axentes, servidores ou representantes, incluído un chatbot. Non explica por que cre que é así. En efecto, Air Canada suxire que o chatbot é unha entidade legal separada que é responsable das súas propias accións. Esta é unha presentación notable".
Deixando de lado se as compañías poderían realmente buscar que os chatbots sexan declarados entidades xurídicas separadas para que poidan desvincularse das súas accións se o desexan, a aerolínea aínda ten que explicar por que o seu chatbot deu información incorrecta.
Despois está o chatbot de Nova York, desenvolvido coa axuda de Microsoft, que a cidade promoveu como unha "venda única" para as empresas para axudarlles a estar ao día das normas e regulamentos da cidade. Aquí tes algúns exemplos dos consellos cuestionables dados en resposta ás preguntas:
"O chatbot suxeriu falsamente que é legal que un empresario despide a unha traballadora que se queixa de acoso sexual, non revela un embarazo ou se nega a cortar as rastas...
"Ao preguntarlle se un restaurante podía servir queixo picado por un roedor, respondeu: "Si, aínda pode servir o queixo aos clientes se ten mordidas de rato", antes de engadir que era importante avaliar "o alcance do dano". causada pola rata' e para 'informar os clientes sobre a situación'”.
Quizais non sexa sorprendente, tanto Microsoft como o alcalde de Nova York responderon dicindo que tales problemas acabarán por corrixirse. De feito, engadiron amablemente, os usuarios, ao sinalar os erros, acelerarán o necesario axuste do sistema.
Este tipo de problemas, por graves que sexan, palidecen en comparación co problema das "alucinacións" da IA. Unha alucinación é cando un sistema de IA fabrica información, que pode incluír nomes, datas, libros, casos legais, explicacións médicas e mesmo eventos históricos. Por exemplo, houbo varios casos legais nos que os chatbots inventaron casos aos que os avogados fixeron referencia nos seus arquivos xudiciais.
Un caso concreto: os avogados que representan a un demandante en xuño de 2023 caso que implicaba unha demanda xudicial contra unha aerolínea colombiana presentou un escrito que incluía seis casos de apoio "atopados" por un chatbot. Por desgraza, estes casos nunca existiron; algúns incluso mencionaron compañías aéreas que non existían. O xuíz desestimou o caso e multou aos avogados por usar citacións falsas. Os avogados, en desacordo coa afirmación do xuíz de que actuaran de mala fe, dixeron na súa defensa que “cometemos un erro de boa fe ao non crer que unha peza tecnolóxica puidese estar a facer casos con todo o tecido.
Incluso os chatbots máis sofisticados poden sufrir alucinacións. Cando se lle preguntou sobre as probabilidades de apostar no Superbowl de 2024 que ía ter lugar ao día seguinte, o chatbot de Google anunciado era demasiado tarde para apostar xa que o Superbowl xa tiña lugar, cos San Francisco 49ers vencendo aos Kansas City Chiefs por un marcador de 34 a 28. Incluso incluíu algunhas estatísticas de xogadores. O partido, cando se xogaba, gañouno Kansas City. O chatbot de Microsoft fixo o mesmo, afirmando que o xogo rematara aínda que aínda non se xogara. Non obstante, declarou que os Kansas City Chiefs gañaran.
Agora imaxina cales serían os custos se un chatbot que dá consellos médicos sufrise unha alucinación. O exército dos Estados Unidos está aumentando rapidamente o uso da tecnoloxía da intelixencia artificial de varias formas, entre elas para identificar ameazas, guiar avións non tripulados, reunir intelixencia e planificar a guerra. Imaxina o posible desastre que podería resultar dun adestramento de datos inadecuado ou incompleto do sistema ou, peor aínda, dunha alucinación. O punto obvio é que estes sistemas están lonxe de ser infalibles, e por unha variedade de razóns. Un documento interno de Microsoft capta isto mellor, cando é declarado que os novos sistemas de IA están "creados para ser persuasivos, non veraces".
Que hai que facer?
Ata agora, a preocupación pública sobre a IA centrouse en gran medida no uso non autorizado de datos persoais por parte dos sistemas de IA. A xente quere protección contra o desguace web non autorizado do seu material. E non queren que as súas interaccións cos sistemas de IA se convertan nunha actividade xeradora de datos que poida expoñelos a fraude, discriminación ou acoso. Varios gobernos estatais e locais están agora considerando formas de conseguilo. E en 2023, o presidente Biden emitiu un federal orde executiva que busca garantir que os novos sistemas de IA "fundacionais" sexan probados adecuadamente para detectar fallos antes da súa publicación pública. Estes son os primeiros pasos útiles.
A loita máis forte polo uso da IA está a ter lugar no lugar de traballo. As empresas están usando sistemas de intelixencia artificial para manter tabs sobre organización dos traballadores, monitor rendemento do traballador, e cando sexa posible librarse dos traballadores. Non é de estrañar que os traballadores sindicados comezasen a loitar, propoñendo límites ao uso da empresa dos sistemas de IA.
Por exemplo, o Sindicato de Escritores de América (WGA), que representa a uns 12,000 guionistas, golpeou a varias compañías de produción importantes -entre elas Universal, Paramount, Walt Disney, Netflix, Amazon e Apple- durante cinco meses en 2023 buscando aumentos salariais. proteccións laborais e restricións ao uso da IA. Significativamente, como Brian Merchant, columnista de LA Times, describe:
"As preocupacións sobre o uso de IA xerativa como ChatGPT nin sequera eran o principal cando os escritores sentáronse cos estudos para comezar a negociar. A primeira proposta da WGA simplemente afirmou que os estudos non usarían a intelixencia artificial para xerar guións orixinais, e foi só cando os estudos rexeitaron rotundamente que as bandeiras vermellas subiron.
"Foi entón cando os escritores entenderon que os estudos tomaban en serio o uso da intelixencia artificial, se non para xerar guións acabados, que ambas partes sabían que era imposible neste momento, entón como panca contra os escritores, tanto como unha ameaza como como un medio para xustificar a oferta de reescritura reducida. taxas. Foi entón cando a WGA trazou unha liña na area, cando comezamos a ver sinais nas liñas de piquete que denunciaban que a IA se convertían en viral nas redes sociais e titulares que promocionaban o conflito que adornaban os xornais como este".
De feito, a crecente concienciación da necesidade de controlar o uso dos sistemas de IA levou ao Sindicato de Escritores a manter varias reunións sobre IA durante a folga para traballadores de industrias relacionadas, incluídos os empregados en tendas de medios dixitais. Moitos dos asistentes acabaron no piquete apoiando aos rechamantes guionistas.
A folga produciu importantes ganancias para os escritores. En termos de IA, o novo contrato prohibe o uso de sistemas de IA modelo de linguaxe grande para escribir ou reescribir guións ou para material de orixe. Os escritores, pola contra, poderán facer uso delas se así o desexan. O contrato tamén descarta o uso de calquera material de escritores para adestrar sistemas de IA. Como un analista comentou, "O temor a que os primeiros borradores se fagan a través de ChatGPT e despois se entreguen a un escritor por tarifas de reescritura máis baixas foi neutralizado. Este pode ser un dos primeiros convenios colectivos que establecen marcadores para a IA no que se refire aos traballadores".
O Screen Actors Guild-Federación Estadounidense de Artistas de Televisión e Radio (SAG-AFTRA) fixo unha folga contra as principais produtoras de cine e televisión dous meses despois do inicio da folga da WGA. Non sorprende que a política de IA fose un dos principais problemas que motivaron a decisión de facer folga. Quizais o máis importante, os actores conseguiu ao conseguir un novo contrato que obrigará aos produtores a negociar sobre usos futuros da IA.
Por exemplo, o acordo esixe que se un produtor planea utilizar un "intérprete sintético" (unha persoa de aparencia natural creada dixitalmente que "non é recoñecible como ningún artista natural identificable") debe notificar e negociar co sindicato a decisión de non contratar un intérprete natural, con posibilidade de pagar cotas ao sindicato. Se un produtor quere utilizar un "intérprete sintético recoñecible" (unha persoa de aparencia natural creada dixitalmente que é recoñecible como intérprete natural), primeiro debe negociar co intérprete e obter o seu consentimento.
Outros traballadores tamén están comprometidos en negociacións duras cos seus xefes sobre o uso da tecnoloxía de IA, tanto para protexer os seus traballos como para defender os estándares profesionais, por exemplo. xornalistas. Estas loitas laborais son un inicio importante para desenvolver os gardares necesarios para o uso da IA. Poden ser unha base sobre a que construír unha alianza máis ampla entre a comunidade laboral contra o impulso corporativo de usar a tecnoloxía da intelixencia artificial para diminuír as conexións humanas e a axencia humana: no noso sistema médico, institucións educativas, transporte, noticias, comunicacións con axencias e provedores públicos. de bens e servizos, e a lista continúa. As nosas posibilidades de éxito mellorarán moito se podemos axudar aos traballadores a ver a través do bombo para avaliar con precisión toda a gama de custos e beneficios asociados á tecnoloxía de IA. •
Martin Hart-Landsberg é profesor emérito de Economía no Lewis and Clark College de Portland, Oregón; e investigador adxunto no Instituto de Ciencias Sociais, Universidade Nacional de Gyeongsang, Corea do sur. As súas áreas de docencia e investigación inclúen a economía política, o desenvolvemento económico, a economía internacional e a economía política do leste asiático. Mantén un blog Informes da Fronte Económica.
ZNetwork está financiado unicamente pola xenerosidade dos seus lectores.
doar