Reconocimiento facial ha pasado rápidamente de una tecno-novedad a una realidad para muchos, y millones en todo el mundo al menos están dispuestos a soportar que sus caras sean escaneadas por software en el aeropuerto, sus iPhones o las granjas de servidores de Facebook. Pero investigadores del AI Now Institute de la Universidad de Nueva York han emitido una fuerte advertencia no sólo contra el omnipresente reconocimiento facial, sino también contra su primo más siniestro: el llamado reconocimiento de afecto, una tecnología que afirma que puede encontrar significados ocultos en la forma de la nariz, los contornos de tu boca y tu forma de sonreír. Si esto suena como algo sacado del siglo XIX, es porque más o menos lo es.
AI ahora 2018 reporte es un registro de 56 páginas de cómo la “inteligencia artificial” (un término general que incluye una miríada de intentos científicos de simular el juicio humano y tonterías de marketing) continúa propagándose sin supervisión, regulación o escrutinio ético significativo. El informe cubre una amplia gama de usos y abusos, incluidos casos de discriminación racial, vigilancia policial y cómo las leyes de secreto comercial pueden ocultar códigos sesgados a un público vigilado por IA. Pero AI Now, que se creó el año pasado para abordar las implicaciones sociales de la inteligencia artificial, expresa en el documento un temor particular por el reconocimiento de afectos, “una subclase de reconocimiento facial que pretende detectar cosas como la personalidad, los sentimientos internos, la salud mental, y 'compromiso de los trabajadores' basado en imágenes o videos de rostros”. La idea de que su jefe lo mire a través de una cámara que utiliza el aprendizaje automático para evaluar constantemente su estado mental es bastante mala, mientras que la perspectiva de que la policía utilice el “reconocimiento de afectos” para deducir su futura criminalidad basándose en “microexpresiones” es exponencialmente peor.
Esto se debe a que el “reconocimiento de afecto”, explica el informe, es poco más que la informatización de la fisonomía, una corriente de pseudociencia completamente deshonrada y desacreditada de otra época que afirmaba que el carácter de una persona podía discernirse a partir de sus cuerpos (y de sus rostros, en particular). No había ninguna razón para creer que esto fuera cierto en la década de 1880, cuando figuras como el desacreditado criminólogo italiano Cesare Lombroso promovieron la teoría, y hay aún menos razones para creerla hoy. Aún así, es una idea atractiva, a pesar de su falta de base científica, y las empresas centradas en datos han aprovechado la oportunidad no sólo de poner nombres a las caras, sino también de atribuir patrones completos de comportamiento y predicciones a alguna relación invisible entre la ceja y la frente. nariz que sólo puede descifrarse a través del ojo de una computadora. Hace dos años, estudiantes de una universidad de Shanghai publicaron un informe que detallaba lo que Se afirma que es un método de aprendizaje automático para determinar la criminalidad basándose únicamente en los rasgos faciales.. El documento fue ampliamente criticado, incluso por Kate Crawford de AI Now, quien dijo a The Intercept que constituía “frenología literal... simplemente usando herramientas modernas de aprendizaje automático supervisado en lugar de calibradores”.
Crawford y sus colegas se oponen ahora más que nunca a la difusión de este tipo de predicción algorítmica cultural y científicamente regresiva: “Aunque la fisonomía cayó en desgracia tras su asociación con la ciencia racial nazi, los investigadores están preocupados por un resurgimiento de ideas fisionómicas en el afecto. solicitudes de reconocimiento”, se lee en el informe. “La idea de que los sistemas de IA puedan decirnos qué siente realmente un estudiante, un cliente o un sospechoso de un delito, o qué tipo de persona es intrínsecamente, está resultando atractiva tanto para las corporaciones como para los gobiernos, a pesar de que las justificaciones científicas para tal Las afirmaciones son muy cuestionables y la historia de sus propósitos discriminatorios está bien documentada”.
En un correo electrónico a The Intercept, Crawford, cofundador de AI Now y distinguido profesor de investigación en la Universidad de Nueva York, junto con Meredith Whittaker, cofundadora de AI Now y distinguida científica investigadora de la Universidad de Nueva York, explicaron por qué el reconocimiento del afecto es más preocupante hoy que nunca. , refiriéndose a dos empresas que utilizan las apariencias para sacar grandes conclusiones sobre las personas. “Desde Faception, que afirma que pueden 'detectar' si alguien es un terrorista a partir de su rostro, hasta HireVue que registra masivamente a los solicitantes de empleo para predecir si serán un buen empleado basándose en sus 'microexpresiones' faciales, la capacidad de usar visión artificial y El análisis masivo de datos para encontrar correlaciones está dando lugar a algunas afirmaciones muy sospechosas”, afirmó Crawford.
Facepción tiene supuestamente para determinar por la apariencia si alguien está "psicológicamente desequilibrado", ansioso o carismático, mientras que HireVue tiene clasificado solicitantes de empleo sobre la misma base.
Como ocurre con cualquier sistema computarizado de juicio y toma de decisiones automático e invisible, el potencial de ser clasificado, señalado o etiquetado erróneamente es inmenso con el reconocimiento del afecto, particularmente dada su escasa base científica: “¿Cómo podría una persona perfilada por estos sistemas cuestionar la ¿Resultado?”, añadió Crawford. “¿Qué sucede cuando confiamos en sistemas de inteligencia artificial de caja negra para juzgar la 'vida interior' o el valor de los seres humanos? Algunos de estos productos citan teorías profundamente controvertidas que han sido objeto de controversia durante mucho tiempo en la literatura psicológica, pero que las empresas emergentes de IA están tratando como un hecho”.
Lo que es peor que la mala ciencia que juzga a cualquiera que esté dentro del alcance de la cámara es que las empresas que los desarrollan mantienen en privado los algoritmos que toman estas decisiones, a salvo de un escrutinio riguroso detrás de un velo de secreto comercial. Whittaker, de AI Now, señala que el secreto corporativo confunde las ya problemáticas prácticas de reconocimiento de afecto: "Debido a que la mayoría de estas tecnologías están siendo desarrolladas por empresas privadas, que operan bajo leyes de secreto corporativo, nuestro informe hace una fuerte recomendación para la protección de los denunciantes éticos dentro de estos compañías." Esta denuncia de irregularidades seguirá siendo crucial, escribió Whittaker, porque muchas empresas de datos tratan la privacidad y la transparencia como una responsabilidad, en lugar de una virtud: “Las justificaciones varían, pero en su mayoría [los desarrolladores de IA] renuncian a toda responsabilidad y dicen que depende de los clientes. decidir qué hacer con él”. La pseudociencia se combina con la ingeniería informática de última generación y se coloca en un vacío de responsabilidad. ¿Qué puede salir mal?
ZNetwork se financia únicamente gracias a la generosidad de sus lectores.
Donar