La Inteligencia Artificial (IA) parece estar en todas partes. Las empresas utilizan potentes chatbots de IA en sus páginas web o sistemas telefónicos para atender las preguntas de los clientes. Las redacciones y revistas los utilizan para escribir historias. Los estudios de cine los utilizan para producir películas. Las empresas de tecnología los utilizan para programar. Los estudiantes los usan para escribir artículos. Parece magia. Y como todo supuestamente sucede “en la nube”, es fácil creer que los sistemas impulsados por IA son buenos para el medio ambiente. Desgraciadamente, las cosas no son como parecen.
Los chatbots se basan en la explotación, utilizan enormes cantidades de energía y están lejos de ser confiables. Y si bien es fácil imaginarlos creciendo en sofisticación y haciendo la vida más fácil en algunos aspectos, las empresas están invirtiendo miles de millones de dólares en su creación para obtener ganancias sin preocuparse de si los resultados serán socialmente beneficiosos. En resumen, debemos tomar en serio el interés corporativo en la IA y desarrollar estrategias que puedan ayudarnos a ganar control sobre cómo se desarrolla y utiliza la IA.
La carrera está en marcha
La revolución de los chatbots comenzó en 2022 con la introducción de ChatGPT por parte de OpenAI. ChatGPT era capaz de mantener una conversación similar a la de un humano y podía responder las preguntas de los usuarios con texto generado, así como escribir artículos y código. Lo mejor de todo es que era de uso gratuito.
Otras empresas, respondiendo al interés público en ChatGPT, pronto comenzaron a introducir sus propios chatbots de IA. Los más grandes y utilizados hoy en día son Gemini (anteriormente Bard) de Google y Copilot de Microsoft. También hay otros, incluidos algunos diseñados para satisfacer necesidades comerciales específicas. Por ejemplo, GitHub CoPilot trabaja para ayudar a los desarrolladores de software a crear código y Claude de Anthrophic fue diseñado para descubrir información y resumir documentos.
Y la carrera sigue creando. próxima generación Sistemas de inteligencia artificial que pueden captar más información, procesarla más rápidamente y proporcionar respuestas personales más detalladas. Según Goldman Sacks economistas, la inversión relacionada con la IA en Estados Unidos “podría alcanzar un máximo de entre el 2.5 y el 4 por ciento del PIB” durante la próxima década.
Los chatbots necesitan una base de datos grande y diversa de palabras, texto, imágenes, audio y comportamiento en línea, así como algoritmos sofisticados que les permitan organizar el material cuando sea necesario de acuerdo con patrones de uso comunes. Cuando se les presenta una pregunta o solicitud de información, los chatbots identifican material en su base de datos relacionado con el patrón de palabras en la pregunta o solicitud y luego ensamblan, nuevamente guiados por algoritmos, un conjunto de palabras o imágenes de su base de datos que mejor satisfagan los datos dados. limitaciones, la indagación. Por supuesto, el proceso de identificar patrones y construir respuestas requiere enormes cantidades de energía.
No importa cuán conversacional e inteligente pueda parecer un chatbot, es importante recordarlo, como Megan Crouse explica la, ese:
“El modelo no 'sabe' lo que está diciendo, pero sí sabe qué símbolos (palabras) pueden aparecer uno después del otro según el conjunto de datos con el que fue entrenado. La generación actual de chatbots con inteligencia artificial, como ChatGPT, su rival de Google, Bard, y otros, en realidad no toman decisiones inteligentemente informadas; en cambio, son los loros de Internet, que repiten palabras que probablemente se encuentren una al lado de la otra en el curso del habla natural. Las matemáticas subyacentes tienen que ver con la probabilidad”.
Diferentes chatbots producirán resultados diferentes debido a su programación y porque han sido entrenados en diferentes conjuntos de datos. Por ejemplo, además de extraer cualquier información pública disponible en la web, Gemini puede utilizar datos de sus Google Apps, mientras que Copilot utiliza datos generados desde su motor de búsqueda Bing.
Los chatbots han pasado por varias actualizaciones desde su introducción. Cada generación tiene un paquete de software más complejo que le permite realizar conexiones más matizadas, así como ampliar su base de datos incorporando datos de preguntas o solicitudes formuladas. De esta manera, los chatbots aprenden/mejoran con el tiempo mediante el uso.
Esta perspectiva resalta el hecho de que, si bien podemos hablar de las cosas que suceden en la nube, la capacidad de los chatbots para responder a indicaciones o preguntas depende de procesos que están firmemente arraigados en el suelo. En el palabras de la escritora tecnológica Karen Hao:
“La IA tiene una cadena de suministro como cualquier otra tecnología; Hay insumos que intervienen en la creación de esta tecnología: los datos son uno, y luego la potencia computacional o los chips de computadora son otro. Y ambos tienen muchos costos humanos asociados”.
La cadena de suministro: trabajo humano
Los sistemas de IA necesitan datos y los datos provienen de las personas de una forma u otra. Por lo tanto, las empresas de tecnología buscan continuamente datos nuevos y diversos para mejorar el funcionamiento de sus sistemas de IA. Con nuestras publicaciones en blogs y sitios web en línea, libros y artículos publicados, búsquedas, fotografías, canciones, imágenes y videos extraídos libremente de Internet, estamos ayudando a respaldar empresas altamente rentables en su búsqueda de ganancias aún mayores. Como Lauren Leffer reconoce,
“Los rastreadores y raspadores web pueden acceder fácilmente a datos desde prácticamente cualquier lugar que no esté detrás de una página de inicio de sesión... Esto incluye cualquier cosa en el popular sitio para compartir fotografías Flickr, mercados en línea, bases de datos de registro de votantes, páginas web gubernamentales, Wikipedia, Reddit, repositorios de investigación, medios de comunicación. e instituciones académicas. Además, existen compilaciones de contenido y archivos web pirateados, que a menudo contienen datos que desde entonces han sido eliminados de su ubicación original en la web. Y las bases de datos eliminadas no desaparecen”.
De hecho, una parte importante del material raspado tenía derechos de autor y se tomó sin permiso. En respuesta, varios editores, escritores y artistas ahora están tratando de detener el robo. Por ejemplo, en agosto de 2023, The New York Times actualizó su “Términos de Servicio" a prohibir cualquier uso de sus textos, fotografías, imágenes y clips de audio/video en el desarrollo de “cualquier programa de software, incluido, entre otros, el entrenamiento de un sistema de aprendizaje automático o inteligencia artificial (IA)”. Pero si bien algunas empresas importantes tienen la influencia o el poder legal para prohibir o negociar una compensación financiera por el uso de su material, la mayoría de las empresas y los individuos no lo hacen. Como resultado, todavía corren el riesgo de tener su “la propiedad intelectual” tomados de ellos de forma gratuita y convertidos en material de capacitación en inteligencia artificial al servicio de las actividades corporativas para generar dinero.
Sin minimizar las pérdidas personales asociadas con la recopilación de datos de IA, este método de adquisición plantea un problema mucho mayor. Eliminar la Internet pública significa que los chatbots de IA se están entrenando utilizando material que incluye perspectivas y comprensiones muy diferentes sobre la ciencia, la historia, la política, el comportamiento humano y los acontecimientos actuales, incluidas publicaciones y escritos de miembros de grupos de odio extremo. Y los datos problemáticos pueden influir fácilmente en el resultado de incluso los chatbots más sofisticados.
Por ejemplo, las empresas utilizan cada vez más los chatbots para ayudarles en la contratación de personal. Sin embargo, como Bloomberg News descubierto CRISPR, “la herramienta de IA generativa más conocida produce sistemáticamente sesgos que perjudican a los grupos en función de sus nombres”. Por ejemplo, su propio estudio encontrado que "Cuando se le pidió 1000 veces que clasificara ocho currículums igualmente calificados para un puesto real de analista financiero en una empresa Fortune 500, ChatGPT tenía menos probabilidades de elegir el currículum con un nombre distintivo de los estadounidenses negros".
Los chatbots dependen de la calidad del trabajo humano de otra manera. Los chatbots no pueden hacer uso directo de gran parte de los datos recopilados por los rastreadores y raspadores web. Como Josh Dzieza explica la, “detrás incluso del sistema de inteligencia artificial más impresionante hay personas: enormes cantidades de personas que etiquetan los datos para entrenarlos y aclaran los datos cuando se confunden”.
Las grandes empresas de IA generalmente contratan a otras empresas más pequeñas para encontrar y capacitar a los trabajadores necesarios para el proceso de etiquetado de datos. Y estos subcontratistas, en la mayoría de los casos, encuentran a sus trabajadores, llamados anotadores, en el Sur Global, a menudo en Nepal y Kenia. Debido a que el proceso de anotación, así como los elementos que se anotan, se consideran secretos comerciales, los anotadores rara vez conocen a su jefe final y serán despedidos si se descubre que discuten lo que hacen con otros, incluso con sus compañeros de trabajo.
Dzieza describe algunos de los trabajos que los anotadores deben realizar para permitir que los chatbots utilicen los datos recopilados para ellos. Por ejemplo, los anotadores etiquetan elementos en vídeos y fotografías. Esto debe hacerse para garantizar que los sistemas de inteligencia artificial puedan conectar configuraciones específicas de píxeles con elementos o emociones específicos. Las empresas que construyen sistemas de inteligencia artificial para vehículos autónomos necesitan anotadores para identificar todos los elementos críticos en videos tomados de escenas de calles o autopistas. Eso significa “identificar cada vehículo, peatón, ciclista, cualquier cosa que un conductor deba tener en cuenta, cuadro por cuadro y desde todos los ángulos de cámara posibles”. Como informa Dzieza, se trata de “un trabajo difícil y repetitivo. Se necesitaron ocho horas para comentar un fragmento de metraje de varios segundos, por lo que [al anotador] se le pagó alrededor de 10 dólares”.
Este tipo de trabajo, aunque mal remunerado, es fundamental. Si el proceso de anotación no se realiza correctamente o la base de datos es limitada, el sistema puede fallar fácilmente. Un ejemplo de ello: en 2018, una mujer fue atropellada y asesinada por un vehículo autónomo de Uber. El sistema de inteligencia artificial falló porque, aunque "estaba programado para evitar a ciclistas y peatones, no sabía qué hacer con alguien que cruzaba la calle caminando en bicicleta".
También se contratan anotadores para etiquetar elementos en fotografías de redes sociales. Esto podría implicar identificar y etiquetar todas las camisetas visibles que podrían usar los humanos. Esto requeriría registrar si se trataba de “polos, camisas usadas al aire libre, camisas colgadas en un perchero”, etc.
Otros trabajos implican etiquetar emociones. Por ejemplo, se contrata a algunos anotadores para mirar fotografías de rostros, incluidas selfies tomadas por los anotadores, y etiquetar el estado emocional percibido del sujeto. Otros son contratados para etiquetar las emociones de los clientes que llamaron por teléfono para hacer pedidos a tiendas propiedad de una cadena de pizzerías. Otro trabajo consiste en anotadores que etiquetan las emociones de las publicaciones de Reddit. Esta tarea resultó desafiante para un grupo de trabajadores indios, principalmente debido a su falta de familiaridad con la cultura estadounidense de Internet. El subcontratista decidió, después de revisar su trabajo, que alrededor del 30 por ciento de los postes estaban mal etiquetados.
Quizás el segmento de más rápido crecimiento en el trabajo de capacitación en IA implica la interacción humana directa con un chatbot. Se contratan personas para discutir temas y el chatbot está programado para dar dos respuestas diferentes a cada conversación. El “discutidor” contratado debe entonces seleccionar la respuesta que considere “mejor”. Luego, esta información se devuelve al sistema para ayudarlo a parecer más "humano".
En resumen, los sistemas de IA dependen en gran medida del trabajo de los humanos. Estos no son sistemas mágicos que funcionan sin verse afectados por los prejuicios o las emociones humanas. Y su actividad no se desarrolla en una nube imaginaria. Este último punto se vuelve aún más obvio cuando consideramos la infraestructura necesaria para su funcionamiento.
Cadena de suministro: centros de datos
El crecimiento de la IA se ha visto respaldado por una gran construcción de centros de datos y una demanda en constante aumento de electricidad para hacer funcionar las computadoras y servidores que albergan, así como los aires acondicionados que deben funcionar continuamente para evitar su sobrecalentamiento. De hecho, “la nube ahora tiene una huella de carbono mayor que la industria aérea. Un solo centro de datos puede consumir la electricidad equivalente a 50,000 hogares”.
Conforme Según la Agencia Internacional de Energía, los 2,700 centros de datos que operan en los EE. UU. fueron responsables de más del 4 por ciento del uso total de energía del país en 2022. Y es probable que su participación alcance el 6 por ciento en 2026. Por supuesto, tales estimaciones son aproximadas, tanto porque las principales empresas tecnológicas son reacio para compartir información relevante y porque los sistemas de IA se entrenan continuamente con nuevos datos y se actualizan con más habilidades, lo que significa un mayor uso de energía por actividad.
Incluso ahora, hay señales de que las demandas de energía de los centros de datos están sobrecargando la red eléctrica estadounidense. Como dice el Washington Post reconoce: “Virginia del Norte necesita el equivalente a varias grandes centrales nucleares para dar servicio a todos los nuevos centros de datos planificados y en construcción. Texas, donde la escasez de electricidad ya es habitual en los calurosos días de verano, enfrenta el mismo dilema”.
El noroeste del Pacífico enfrenta un desafío similar. como el Oregonian El periódico señala:
“Los centros de datos que proliferan en todo Oregón consumirán muchísimo más electricidad de lo que habían previsto las empresas de servicios públicos y los planificadores de energía regionales, según tres nuevos pronósticos emitidos en el verano [de 2023].
“Eso está ejerciendo más presión sobre la red eléctrica del noroeste y generando nuevas dudas sobre si Oregón puede cumplir con los ambiciosos objetivos de energía limpia que el estado estableció hace apenas dos años…
“La Administración de Energía de Bonneville ahora espera que, para 2041, la demanda de electricidad de los centros de datos en Oregón y Washington crezca dos veces y media, consumiendo un promedio de 2,715 megavatios. Eso es suficiente para abastecer hoy a un tercio de todos los hogares en esos dos estados”.
Esta creciente demanda de energía, impulsada en gran medida por las crecientes demandas de la IA, representa una gran amenaza para nuestros esfuerzos por combatir el calentamiento global. Por ejemplo, las preocupaciones energéticas ya han llevado a Kansas, Nebraska, Wisconsin y Carolina del Sur a retrasar el cierre de plantas de carbón. Un informe de 2024 elaborado por varios grupos de acción climática sobre la amenaza climática que representa la IA encuentra que la duplicación del uso de energía por parte de los centros de datos, que la Agencia Internacional de Energía estima que ocurrirá en los próximos dos años, conducirá a un aumento del 80 por ciento en las emisiones que calientan el planeta. Este es un alto precio a pagar por los nuevos servicios de IA que se están implementando independientemente de su capacidad para satisfacer necesidades reales, en lugar de creadas.
“Persuasivo, no veraz”
Es evidente que las grandes empresas tecnológicas están apostando a que la IA les generará enormes beneficios. Y no dejando nada al azar, están haciendo todo lo posible para incorporarlos a nuestras vidas antes de que tengamos la oportunidad de considerar si los queremos. Los sistemas de inteligencia artificial ya se están promoviendo como una forma de mejorar la atención médica, brindar asesoramiento sobre salud mental, brindar asesoramiento legal, educar a los estudiantes, mejorar nuestra toma de decisiones personales, aumentar la eficiencia en el lugar de trabajo, y la lista continúa.
Aparentemente olvidado está el hecho de que los sistemas de IA son tan buenos como los datos ingresados y el software escrito para usarlos. Es decir, su funcionamiento depende del ser humano. Y, quizás aún más importante, nadie sabe realmente cómo los sistemas de inteligencia artificial utilizan los datos con los que han sido entrenados. En otras palabras, es imposible rastrear su “proceso de razonamiento”. Las señales de advertencia de que estos sistemas están siendo seriamente sobrevendidos ya son visibles.
Por ejemplo, en 2022, un cliente se puso en contacto con Air Canada para averiguar cómo obtener una tarifa por duelo. El chatbot de servicio al cliente de la aerolínea, basado en inteligencia artificial, le dijo que solo necesitaba completar un formulario dentro de los 90 días posteriores a la emisión del boleto para obtener un reembolso por su viaje. Pero cuando envió el formulario después de completar su viaje, el personal de la aerolínea le dijo que no habría reducción de tarifa porque el formulario debía completarse antes del viaje. Cuando le mostró a la aerolínea las capturas de pantalla que tomó de lo que le dijo el robot, la aerolínea respondió que no era responsable de lo que dijo el robot.
El cliente demandó a Air Canada y ganó. El juez señaló que:
“Air Canada sostiene que no se hace responsable de la información proporcionada por uno de sus agentes, empleados o representantes, incluido un chatbot. No explica por qué cree que es así. De hecho, Air Canada sugiere que el chatbot es una entidad legal separada que es responsable de sus propias acciones. Esta es una presentación notable”.
Dejando de lado si las empresas podrían intentar que los chatbots sean declarados entidades legales separadas para que puedan desvincularse de sus acciones si lo desean, la aerolínea aún tiene que explicar por qué su chatbot proporcionó información incorrecta.
Luego está el chatbot de la ciudad de Nueva York, desarrollado con la ayuda de Microsoft, que la ciudad promovió como una “ventanilla única” para ayudar a las empresas a mantenerse al día con las normas y regulaciones de la ciudad. Aquí están algunas ejemplos de los consejos cuestionables dados en respuesta a las consultas:
“El chatbot sugirió falsamente que es legal que un empleador despida a un trabajador que se queja de acoso sexual, no revela su embarazo o se niega a cortarse las rastas…
"Cuando se le preguntó si un restaurante podría servir queso mordisqueado por un roedor, respondió: 'Sí, aún se puede servir queso a los clientes si tiene picaduras de rata', antes de agregar que era importante evaluar 'el alcance del daño'. causado por la rata' e 'informar a los clientes sobre la situación'”.
Quizás no sea sorprendente que tanto Microsoft como el alcalde de Nueva York respondieran diciendo que estos problemas eventualmente se corregirán. De hecho, agregaron amablemente, los usuarios, al señalar errores, acelerarán el ajuste necesario del sistema.
Este tipo de problemas, por muy graves que sean, palidecen en comparación con el problema de las “alucinaciones” de la IA. Una alucinación ocurre cuando un sistema de inteligencia artificial fabrica información, que podría incluir nombres, fechas, libros, casos legales, explicaciones médicas e incluso eventos históricos. Por ejemplo, ha habido varios casos legales en los que los chatbots inventaron casos a los que los abogados hicieron referencia en sus expedientes judiciales.
Un ejemplo de ello: los abogados que representan a un demandante en junio de 2023 case involucrado en una demanda contra una aerolínea colombiana presentó un escrito que incluía seis casos de apoyo “encontrados” por un chatbot. Lamentablemente, estos casos nunca existieron; algunos incluso mencionaron aerolíneas que no existían. El juez desestimó el caso y multó a los abogados por utilizar citaciones falsas. Los abogados, en desacuerdo con la afirmación del juez de que habían actuado de mala fe, dijeron en su defensa que “Cometimos un error de buena fe al no creer que una pieza de tecnología podría estar inventando casos de la nada.
Incluso los chatbots más sofisticados pueden sufrir alucinaciones. Cuando se le preguntó sobre las probabilidades de apostar en la Superbowl de 2024 que se celebraría al día siguiente, el chatbot de Google anunció ya era demasiado tarde para apostar ya que la Superbowl ya se había celebrado, con los San Francisco 49ers venciendo a los Kansas City Chiefs por un marcador de 34 a 28. Incluso incluía algunas estadísticas de los jugadores. El partido, cuando se jugó, lo ganó Kansas City. El chatbot de Microsoft hizo lo mismo, afirmando que el juego había terminado aunque aún no se había jugado. Sin embargo, declaró que los Kansas City Chiefs habían ganado.
Ahora imagine cuáles podrían ser los costos si un chatbot que brinda asesoramiento médico sufriera una alucinación. El ejército estadounidense está aumentando rápidamente el uso de la tecnología de inteligencia artificial de diversas formas, incluso para identificar amenazas, guiar aviones no tripulados, recopilar inteligencia y planificar la guerra. Imagine el desastre potencial que podría resultar de un entrenamiento de datos inadecuado o incompleto del sistema o, peor aún, de una alucinación. Lo obvio es que estos sistemas están lejos de ser infalibles, y por diversas razones. Un documento interno de Microsoft captura esto mejor cuando declara que los nuevos sistemas de IA están “diseñados para ser persuasivos, no veraces”.
¿Lo que se debe hacer?
Hasta ahora, la preocupación pública sobre la IA se ha centrado en gran medida en el uso no autorizado de datos personales por parte de los sistemas de IA. La gente quiere protección contra el desguace web no autorizado de su material. Y no quieren que sus interacciones con los sistemas de IA se conviertan en una actividad generadora de datos que pueda exponerlos a fraude, discriminación o acoso. Varios gobiernos estatales y locales están ahora en vista de maneras de lograrlo. Y en 2023, el presidente Biden emitió una ley federal orden ejecutiva que busca garantizar que los nuevos sistemas de IA “fundacionales” se prueben adecuadamente para detectar fallas antes de su lanzamiento público. Estos son primeros pasos útiles.
La lucha más aguda sobre el uso de la IA tiene lugar en el lugar de trabajo. Las empresas están utilizando sistemas de inteligencia artificial para mantener fichas sobre la organización de los trabajadores, monitorear desempeño del trabajador, y cuando sea posible deshacerse de trabajadores. No es sorprendente que los trabajadores sindicalizados hayan comenzado a contraatacar, proponiendo límites al uso de los sistemas de inteligencia artificial por parte de las empresas.
Por ejemplo, el Writers Guild of America (WGA), que representa a unos 12,000 guionistas, puso en huelga a varias productoras importantes (entre ellas Universal, Paramount, Walt Disney, Netflix, Amazon y Apple) durante cinco meses en 2023 en busca de aumentos salariales. protecciones laborales y restricciones al uso de la IA. Es significativo que, como Brian Merchant, columnista del LA Times, describe:
“Las preocupaciones sobre el uso de IA generativa como ChatGPT ni siquiera eran una prioridad cuando los escritores se sentaron por primera vez con los estudios para comenzar a negociar. La primera propuesta de la WGA simplemente establecía que los estudios no usarían IA para generar guiones originales, y fue solo cuando los estudios se negaron rotundamente que se encendieron las banderas rojas.
"Fue entonces cuando los escritores se dieron cuenta de que los estudios tomaban en serio el uso de la IA, si no para generar guiones terminados, algo que ambas partes sabían que era imposible en ese momento, entonces como palanca contra los escritores, como una amenaza y como un medio para justificar la reducción de la reescritura. honorarios. Fue entonces cuando la WGA trazó una línea en la arena, cuando comenzamos a ver carteles en los piquetes que denunciaban la IA que se volvían virales en las redes sociales y titulares que promocionaban el conflicto adornaban periódicos como este”.
De hecho, la creciente conciencia de la necesidad de controlar el uso de los sistemas de IA llevó al Writers Guild a celebrar varias reuniones sobre IA durante la huelga para trabajadores de industrias relacionadas, incluidos los empleados en tiendas de medios digitales. Muchos de los asistentes acabaron en el piquete apoyando a los guionistas en huelga.
La huelga produjo importantes beneficios para los escritores. En términos de IA, el nuevo contrato prohíbe el uso de sistemas de IA con modelos de lenguaje grandes para escribir o reescribir guiones o material fuente. Los escritores, por otra parte, podrán hacer uso de ellos si así lo desean. El contrato también excluye el uso de material de los escritores para entrenar sistemas de inteligencia artificial. Como un analista comentó, “Se ha neutralizado el temor de que los primeros borradores se hicieran a través de ChatGPT y luego se entregaran a un escritor por tarifas de reescritura más bajas. Este puede ser uno de los primeros acuerdos de negociación colectiva que establecen indicadores para la IA en lo que respecta a los trabajadores”.
El Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) se declaró en huelga contra los principales productores de cine y televisión dos meses después del inicio de la huelga de la WGA. No sorprende que la política de IA fuera una de las principales cuestiones que motivaron la decisión de atacar. Quizás lo más importante es que los actores tenido éxito para ganar un nuevo contrato que obligará a los productores a negociar sobre los usos futuros de la IA.
Por ejemplo, el acuerdo exige que si un productor planea utilizar un “artista sintético” (un individuo de apariencia natural creado digitalmente que “no es reconocible como ningún artista natural identificable”) debe notificarlo y negociar con el sindicato la decisión de no hacerlo. contratar a un artista natural, con la posibilidad de pagar honorarios al sindicato. Si un productor quiere utilizar un “artista sintético reconocible” (un individuo de apariencia natural creado digitalmente que es reconocible como un artista natural), primero debe negociar con el artista y obtener su consentimiento.
Otros trabajadores también participan en duras negociaciones con sus jefes sobre el uso de la tecnología de inteligencia artificial, tanto para proteger sus puestos de trabajo como para defender los estándares profesionales, por ejemplo. periodistas. Estas luchas laborales son un comienzo importante hacia el desarrollo de barreras de seguridad necesarias para el uso de la IA. Pueden ser una base sobre la cual construir una alianza más amplia entre los trabajadores y la comunidad contra el impulso corporativo de utilizar la tecnología de inteligencia artificial para disminuir las conexiones humanas y la agencia humana, en nuestro sistema médico, instituciones educativas, transporte, informes de noticias, comunicaciones con agencias y proveedores públicos. de bienes y servicios, y la lista continúa. Nuestras posibilidades de éxito mejorarán enormemente si podemos ayudar a los trabajadores a ver más allá de las exageraciones y evaluar con precisión toda la gama de costos y beneficios asociados con la tecnología de IA. •
Martin Hart-Landsberg es profesor emérito de economía en Lewis and Clark College, Portland, Oregón; e Investigador Adjunto del Instituto de Ciencias Sociales, Universidad Nacional de Gyeongsang, Corea del Sur. Sus áreas de docencia e investigación incluyen economía política, desarrollo económico, economía internacional y economía política del este de Asia. Mantiene un blog. Informes del Frente Económico.
ZNetwork se financia únicamente gracias a la generosidad de sus lectores.
Donar