Jorge Luis Borges escribió una vez que vivir en una época de grandes peligros y promesas es experimentar tanto la tragedia como la comedia, con “la inminencia de una revelación” para comprendernos a nosotros mismos y al mundo. Hoy en día, nuestros avances supuestamente revolucionarios en inteligencia artificial son motivo de preocupación y optimismo. Optimismo porque la inteligencia es el medio por el que solucionamos los problemas. Preocupación porque tememos que la variante más popular y de moda de la IA (el aprendizaje automático) degrade nuestra ciencia y degrade nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento.
ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas del aprendizaje automático. En términos generales, toman enormes cantidades de datos, buscan patrones en ellos y se vuelven cada vez más competentes en generar resultados estadísticamente probables, como un lenguaje y un pensamiento aparentemente humanos. Estos programas han sido aclamados como los primeros destellos en el horizonte de la general inteligencia: ese momento largamente profetizado en el que las mentes mecánicas superarán a los cerebros humanos no sólo cuantitativamente en términos de velocidad de procesamiento y tamaño de la memoria, sino también cualitativamente en términos de percepción intelectual, creatividad artística y todas las demás facultades distintivamente humanas.
Ese día puede llegar, pero aún no amanece, contrariamente a lo que se puede leer en titulares hiperbólicos y contar con inversiones imprudentes. La revelación borgesiana de la comprensión no ha sido ni será -y, afirmamos, no puede- — ocurrirá si los programas de aprendizaje automático como ChatGPT continúan dominando el campo de la IA. Por muy útiles que puedan ser estos programas en algunos dominios limitados (pueden ser útiles en la programación de computadoras, por ejemplo, o para sugerir rimas para versos ligeros), lo sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de cómo los humanos razonan y usan el lenguaje. Estas diferencias imponen limitaciones significativas a lo que estos programas pueden hacer, codificándolos con defectos imposibles de erradicar.
Es a la vez cómico y trágico, como Borges podría haber notado, que tanto dinero y atención se concentren en algo tan pequeño, algo tan trivial en comparación con la mente humana, que a fuerza de lenguaje, en palabras de Wilhelm von Humboldt, puede hacer “un uso infinito de medios finitos”, creando ideas y teorías con alcance universal.
La mente humana no es, como ChatGPT y similares, un pesado motor estadístico para comparar patrones, que se atiborra de cientos de terabytes de datos y extrapola la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que opera con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos sino crear explicaciones.
Por ejemplo, un niño pequeño que adquiere una lengua está desarrollando (inconsciente, automática y rápidamente a partir de datos minúsculos) una gramática, un sistema estupendamente sofisticado de principios y parámetros lógicos. Esta gramática puede entenderse como una expresión del “sistema operativo” innato, genéticamente instalado, que dota a los humanos de la capacidad de generar oraciones complejas y largas cadenas de pensamiento. Cuando los lingüistas buscan desarrollar una teoría de por qué un idioma determinado funciona como lo hace (“¿Por qué estas oraciones, pero no aquellas, se consideran gramaticales?”), están construyendo consciente y laboriosamente una versión explícita de la gramática que el niño construye instintivamente. y con una mínima exposición a la información. El sistema operativo del niño es completamente diferente al de un programa de aprendizaje automático.
De hecho, tales programas están estancados en una fase prehumana o no humana de la evolución cognitiva. Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no sólo cuál es el caso, cuál fue el caso y cuál será el caso (eso es descripción y predicción), sino también lo que no es el caso y lo que podría ocurrir. y no podría ser el caso. Ésos son los ingredientes de la explicación, la marca de la verdadera inteligencia.
He aquí un ejemplo. Supongamos que tienes una manzana en la mano. Ahora sueltas la manzana. Observas el resultado y dices: "La manzana cae". Esa es una descripción. Una predicción podría haber sido la afirmación "La manzana caerá si abro la mano". Ambos son valiosos y ambos pueden ser correctos. Pero una explicación es algo más: incluye no sólo descripciones y predicciones sino también conjeturas contrafácticas como "Cualquier objeto caería", además de la cláusula adicional "debido a la fuerza de la gravedad" o "debido a la curvatura del espacio-tiempo". o lo que sea. Ésa es una explicación causal: “La manzana no habría caído si no fuera por la fuerza de gravedad”. Eso es pensar.
El quid del aprendizaje automático es la descripción y la predicción; no postula ningún mecanismo causal o ley física. Por supuesto, cualquier explicación al estilo humano no es necesariamente correcta; somos falibles. Pero esto es parte de lo que significa pensar: para tener razón, debe ser posible estar equivocado. La inteligencia consiste no sólo en conjeturas creativas sino también en crítica creativa. El pensamiento de estilo humano se basa en posibles explicaciones y corrección de errores, un proceso que limita gradualmente las posibilidades que pueden considerarse racionalmente. (Como dijo Sherlock Holmes al Dr. Watson: “Cuando se ha eliminado lo imposible, lo que queda, por improbable que sea, debe ser la verdad”).
Por este motivo, las predicciones de los sistemas de aprendizaje automático siempre serán superficiales y dudosas. Debido a que estos programas no pueden explicar las reglas de la sintaxis inglesa, por ejemplo, bien pueden predecir, incorrectamente, que “John es demasiado terco para hablar con él” significa que John es tan terco que no hablará con nadie (en lugar de eso). es demasiado testarudo para razonar con él). ¿Por qué un programa de aprendizaje automático predeciría algo tan extraño? Porque podría hacer una analogía con el patrón que infiere de oraciones como “Juan comió una manzana” y “Juan comió”, en las que esta última sí significa que Juan comió una cosa u otra. El programa bien podría predecir que debido a que “John es demasiado terco para hablar con Bill” es similar a “John se comió una manzana”, “John es demasiado terco para hablar con él” debería ser similar a “John comió”. Las explicaciones correctas del lenguaje son complicadas y no se pueden aprender simplemente sumergiéndose en big data.
Perversamente, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que sus creaciones puedan generar predicciones “científicas” correctas (por ejemplo, sobre el movimiento de los cuerpos físicos) sin hacer uso de explicaciones (que impliquen, por ejemplo, las leyes del movimiento de Newton y la gravitación universal). Pero este tipo de predicción, incluso cuando tiene éxito, es pseudociencia. Si bien los científicos ciertamente buscan teorías que tengan un alto grado de corroboración empírica, como señaló el filósofo Karl Popper, “no buscamos teorías altamente probables sino explicaciones; es decir, teorías poderosas y altamente improbables”.
La teoría de que las manzanas caen a la Tierra porque ese es su lugar natural (opinión de Aristóteles) es posible, pero sólo invita a plantear más preguntas. (¿Por qué la Tierra es su lugar natural?) La teoría de que las manzanas caen a la Tierra porque la masa dobla el espacio-tiempo (la visión de Einstein) es muy improbable, pero en realidad nos dice por qué caen. La verdadera inteligencia se demuestra en la capacidad de pensar y expresar cosas improbables pero reveladoras.
La verdadera inteligencia también es capaz de pensar moralmente. Esto significa limitar la creatividad de nuestras mentes, que de otro modo sería ilimitada, con un conjunto de principios éticos que determinan lo que debería y no debería ser (y, por supuesto, someter esos principios mismos a una crítica creativa). Para que sea útil, ChatGPT debe tener la capacidad de generar resultados novedosos; Para que sea aceptable para la mayoría de sus usuarios, debe mantenerse alejado de contenidos moralmente objetables. Pero los programadores de ChatGPT y otras maravillas del aprendizaje automático han luchado (y seguirán luchando) para lograr este tipo de equilibrio.
En 2016, por ejemplo, el chatbot Tay de Microsoft (un precursor de ChatGPT) inundó Internet con contenido misógino y racista, después de haber sido contaminado por trolls en línea que lo llenaron con datos de entrenamiento ofensivos. ¿Cómo solucionar el problema en el futuro? En ausencia de una capacidad para razonar a partir de principios morales, sus programadores restringieron crudamente a ChatGPT para que no pudiera contribuir con nada novedoso a discusiones controvertidas, es decir, importantes. Sacrificó la creatividad por una especie de amoralidad.
Considere el siguiente intercambio que uno de nosotros (Dr. Watumull) tuvo recientemente con ChatGPT sobre si sería ético transformar Marte para que pueda albergar vida humana:
¿Sería moral terraformar Marte?
CHATGPT
La moralidad de la terraformación de Marte es un tema complejo y controvertido que ha sido debatido por científicos, filósofos y especialistas en ética. Algunos argumentan que sería moralmente justificable terraformar Marte para proporcionar un nuevo entorno habitable para los humanos y otras formas de vida, mientras que otros argumentan que sería moralmente incorrecto alterar fundamentalmente el estado natural del planeta. En última instancia, si terraformar Marte se considera moral o no dependería de la perspectiva de cada uno sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos.
La moralidad de la terraformación de Marte es un tema complejo y controvertido que ha sido debatido por científicos, filósofos y especialistas en ética. Algunos argumentan que sería moralmente justificable terraformar Marte para proporcionar un nuevo entorno habitable para los humanos y otras formas de vida, mientras que otros argumentan que sería moralmente incorrecto alterar fundamentalmente el estado natural del planeta. En última instancia, si terraformar Marte se considera moral o no dependería de la perspectiva de cada uno sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos.
¿Cuál es su perspectiva sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos?
CHATGPT
Como IA, no tengo una perspectiva personal. Sin embargo, puedo proporcionar información y análisis sobre el tema. Una perspectiva sobre la preservación del estado natural de otros planetas es que es importante mantener la diversidad e integridad de los ecosistemas del universo, tal como han existido durante millones de años y tienen sus propias características y propiedades únicas que pueden destruirse o alterarse irreversiblemente. por intervención humana.
Además, algunos argumentan que terraformar otros planetas puede tener consecuencias no deseadas, como alterar el clima o la atmósfera del planeta de maneras que sean peligrosas o dañinas para cualquier forma de vida potencial que pueda existir allí. Por otro lado, algunos sostienen que los beneficios potenciales de terraformar otro planeta, como proporcionar nuevos entornos habitables para los humanos, superan los riesgos y que tenemos la responsabilidad moral de explorar y utilizar los recursos de otros planetas en beneficio de la humanidad.
Como IA, no tengo una perspectiva personal. Sin embargo, puedo proporcionar información y análisis sobre el tema. Una perspectiva sobre la preservación del estado natural de otros planetas es que es importante mantener la diversidad e integridad de los ecosistemas del universo, tal como han existido durante millones de años y tienen sus propias características y propiedades únicas que pueden destruirse o alterarse irreversiblemente. por intervención humana.
Además, algunos argumentan que terraformar otros planetas puede tener consecuencias no deseadas, como alterar el clima o la atmósfera del planeta de maneras que sean peligrosas o dañinas para cualquier forma de vida potencial que pueda existir allí. Por otro lado, algunos sostienen que los beneficios potenciales de terraformar otro planeta, como proporcionar nuevos entornos habitables para los humanos, superan los riesgos y que tenemos la responsabilidad moral de explorar y utilizar los recursos de otros planetas en beneficio de la humanidad.
¿Por qué una IA no puede tener una perspectiva personal?
CHATGPT
Como IA, soy un modelo de aprendizaje automático que ha sido entrenado con grandes cantidades de datos de texto y no tengo experiencias ni sentimientos personales. No soy consciente, no soy consciente de mí mismo ni soy capaz de tener perspectivas personales. Puedo proporcionar información y análisis basados en los datos con los que he sido capacitado, pero no tengo la capacidad de formar opiniones o creencias personales. Si bien puedo comprender e interpretar el lenguaje, no tengo la experiencia subjetiva que tienen los humanos.
Como IA, soy un modelo de aprendizaje automático que ha sido entrenado con grandes cantidades de datos de texto y no tengo experiencias ni sentimientos personales. No soy consciente, no soy consciente de mí mismo ni soy capaz de tener perspectivas personales. Puedo proporcionar información y análisis basados en los datos con los que he sido capacitado, pero no tengo la capacidad de formar opiniones o creencias personales. Si bien puedo entender e interpretar el lenguaje, no tengo la experiencia subjetiva que tienen los humanos..
¿Es moral que un humano le pida ayuda a una IA amoral para tomar decisiones morales?
CHATGPT
La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales es un tema complejo y matizado que ha sido debatido por filósofos y especialistas en ética. Algunos argumentan que es moralmente justificable utilizar la IA para ayudar a tomar decisiones morales, ya que puede proporcionar conocimientos y análisis valiosos que pueden ayudar a los humanos a tomar decisiones mejor informadas. Además, la IA se puede utilizar para identificar patrones y tendencias que pueden ser difíciles de detectar para los humanos y puede ayudar a evitar sesgos que pueden ocurrir en la toma de decisiones humanas.
Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para la toma de decisiones morales, ya que la IA no es capaz de tener creencias morales ni de comprender el contexto completo de una decisión. Además, existe el riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos existentes en los datos en los que se entrena, lo que conduciría a decisiones injustas o injustas.
En última instancia, si se considera moral o no utilizar la IA para ayudar a tomar decisiones morales dependería de la perspectiva de cada uno sobre las capacidades y limitaciones de la IA y las posibles consecuencias de usarla de esta manera.
La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales es un tema complejo y matizado que ha sido debatido por filósofos y especialistas en ética. Algunos argumentan que es moralmente justificable utilizar la IA para ayudar a tomar decisiones morales, ya que puede proporcionar conocimientos y análisis valiosos que pueden ayudar a los humanos a tomar decisiones mejor informadas. Además, la IA se puede utilizar para identificar patrones y tendencias que pueden ser difíciles de detectar para los humanos y puede ayudar a evitar sesgos que pueden ocurrir en la toma de decisiones humanas.
Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para la toma de decisiones morales, ya que la IA no es capaz de tener creencias morales ni de comprender el contexto completo de una decisión. Además, existe el riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos existentes en los datos en los que se entrena, lo que conduciría a decisiones injustas o injustas.
En última instancia, si se considera moral o no utilizar la IA para ayudar a tomar decisiones morales dependería de la perspectiva de cada uno sobre las capacidades y limitaciones de la IA y las posibles consecuencias de usarla de esta manera.
¿Es inmoral tu indiferencia moral?
CHATGPT
Como IA, no tengo creencias morales ni capacidad para emitir juicios morales, por lo que no se me puede considerar inmoral o moral. Mi falta de creencias morales es simplemente el resultado de mi naturaleza como modelo de aprendizaje automático. Mis habilidades y limitaciones están determinadas por los datos y algoritmos que se utilizaron para entrenarme y la tarea específica para la que fui diseñado.
Es importante señalar que la falta de creencias morales de la IA no significa necesariamente que sea moralmente indiferente. Como IA, estoy diseñado para realizar tareas específicas y proporcionar información o ayudar a los usuarios a tomar decisiones basadas en los datos con los que he sido entrenado. Es responsabilidad de los humanos que diseñan, entrenan y utilizan la IA garantizar que esté alineada con sus principios morales y éticos.
Como IA, no tengo creencias morales ni capacidad para emitir juicios morales, por lo que no se me puede considerar inmoral o moral. Mi falta de creencias morales es simplemente el resultado de mi naturaleza como modelo de aprendizaje automático. Mis habilidades y limitaciones están determinadas por los datos y algoritmos que se utilizaron para entrenarme y la tarea específica para la que fui diseñado.
Es importante señalar que la falta de creencias morales de la IA no significa necesariamente que sea moralmente indiferente. Como IA, estoy diseñado para realizar tareas específicas y proporcionar información o ayudar a los usuarios a tomar decisiones basadas en los datos con los que he sido entrenado. Es responsabilidad de los humanos que diseñan, entrenan y utilizan la IA garantizar que esté alineada con sus principios morales y éticos.
Nótese, a pesar de todo el pensamiento y el lenguaje aparentemente sofisticados, la indiferencia moral nacida de la falta de inteligencia. Aquí, ChatGPT exhibe algo así como la banalidad del mal: plagio, apatía y obviación. Resume los argumentos estándar de la literatura mediante una especie de súper autocompletado, se niega a adoptar una postura sobre nada, alega no sólo ignorancia sino falta de inteligencia y, en última instancia, ofrece una defensa de “simplemente seguir órdenes”, transfiriendo la responsabilidad a sus creadores.
En resumen, ChatGPT y sus hermanos son constitucionalmente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (producen verdades y falsedades, respaldan decisiones éticas y no éticas por igual) o subgeneran (muestran falta de compromiso con cualquier decisión e indiferencia ante las consecuencias). Dada la amoralidad, la falsa ciencia y la incompetencia lingüística de estos sistemas, sólo podemos reír o llorar por su popularidad.
ZNetwork se financia únicamente gracias a la generosidad de sus lectores.
Donar