Ansiktsigenkänning har snabbt skiftat från techno-nyhet till fakta för många, med miljoner runt om i världen som åtminstone är villiga att stå ut med att deras ansikten skannas av programvara på flygplatsen, sina iPhones eller Facebooks serverfarmar. Men forskare vid New York Universitys AI Now Institute har utfärdat en stark varning mot inte bara allmänt förekommande ansiktsigenkänning, utan dess mer olycksbådande kusin: så kallad affektigenkänning, teknik som hävdar att den kan hitta dold mening i formen av din näsa, konturerna av din mun och hur du ler. Om det låter som något som har muddrats upp från 19-talet så är det för att det är det.
AI nu är 2018 rapport är ett 56-sidigt register över hur "artificiell intelligens" - ett paraplybegrepp som inkluderar en mängd både vetenskapliga försök att simulera mänskligt omdöme och marknadsföringsnonsens - fortsätter att spridas utan tillsyn, reglering eller meningsfull etisk granskning. Rapporten täcker ett brett spektrum av användningar och övergrepp, inklusive fall av rasdiskriminering, polisövervakning och hur lagar om affärshemligheter kan dölja partisk kod från en AI-övervakad allmänhet. Men AI Now, som etablerades förra året för att brottas med de sociala implikationerna av artificiell intelligens, uttrycker i dokumentet särskild rädsla för affektigenkänning, "en underklass av ansiktsigenkänning som påstår sig upptäcka saker som personlighet, inre känslor, mental hälsa, och "arbetarengagemang" baserat på bilder eller video av ansikten." Tanken på att din chef tittar på dig genom en kamera som använder maskininlärning för att ständigt bedöma ditt mentala tillstånd är illa nog, medan utsikterna att polisen använder "affektigenkänning" för att härleda din framtida brottslighet baserat på "mikro-uttryck" är exponentiellt värre.
Det beror på att "affektigenkänning", förklarar rapporten, är lite mer än datoriseringen av fysiognomin, en grundligt skamfilad och avvisad stam av pseudovetenskap från en annan era som hävdade att en persons karaktär kunde urskiljas från deras kroppar - och deras ansikten, i synnerhet. Det fanns ingen anledning att tro att detta var sant på 1880-talet, när figurer som den misskrediterade italienska kriminologen Cesare Lombroso främjade teorin, och det finns ännu mindre anledning att tro det idag. Ändå är det en attraktiv idé, trots att den saknar grund i någon vetenskap, och datacentrerade företag har tagit tillfället i akt att inte bara sätta namn på ansikten, utan att tillskriva hela beteendemönster och förutsägelser till något osynligt förhållande mellan ditt ögonbryn och näsa som bara kan tydas genom ögat på en dator. För två år sedan publicerade studenter vid ett universitet i Shanghai en rapport som beskriver vad de har påstås vara en maskininlärningsmetod för att fastställa kriminalitet baserat på enbart ansiktsdrag. Tidningen kritiserades mycket, inklusive av AI Nows Kate Crawford, som sa till The Intercept att det utgjorde "bokstavlig frenologi … bara att använda moderna verktyg för övervakad maskininlärning istället för bromsok.”
Crawford och hennes kollegor är nu mer motståndare än någonsin till spridningen av den här sortens kulturellt och vetenskapligt regressiva algoritmiska förutsägelser: "Även om fysiognomin föll i unåde efter dess associering med nazistisk rasvetenskap, är forskare oroliga för en återuppkomst av fysionomiska idéer i affekt ansökningar om erkännande”, står det i rapporten. "Tanken att AI-system kanske kan berätta för oss vad en student, en kund eller en brottsmisstänkt verkligen känner eller vilken typ av person de är, visar sig vara attraktiv för både företag och regeringar, även om de vetenskapliga motiveringarna för sådana påståenden är mycket tveksamma och historien om deras diskriminerande syften är väldokumenterad."
I ett e-postmeddelande till The Intercept förklarade Crawford, AI Nows medgrundare och framstående forskningsprofessor vid NYU, tillsammans med Meredith Whittaker, medgrundare av AI Now och en framstående forskare vid NYU, varför affektigenkänning är mer oroande idag än någonsin , med hänvisning till två företag som använder utseende för att dra stora slutsatser om människor. "Från Faception som hävdar att de kan "upptäcka" om någon är en terrorist från deras ansikte till HireVue-massinspelningar av jobbsökande för att förutsäga om de kommer att bli en bra anställd baserat på deras ansikts "mikro-uttryck", förmågan att använda maskinseende och massiv dataanalys för att hitta korrelationer leder till några mycket misstänkta påståenden, säger Crawford.
Faception har påstådd att utifrån utseende avgöra om någon är "psykologiskt obalanserad", orolig eller karismatisk, medan HireVue har rankad arbetssökande på samma grunder.
Som med alla datoriserade system för automatisk, osynlig bedömning och beslutsfattande, är potentialen för att felaktigt klassificeras, flaggas eller taggas enorm med affektigenkänning, särskilt med tanke på dess tunna vetenskapliga grund: "Hur skulle en person som profileras av dessa system bestrida resultat?", tillade Crawford. "Vad händer när vi förlitar oss på blackboxade AI-system för att bedöma människors "inre liv" eller värdighet? Vissa av dessa produkter citerar djupt kontroversiella teorier som länge har omtvistats i den psykologiska litteraturen, men som behandlas av AI-startups som ett faktum.”
Vad som är värre än att dålig vetenskap dömer någon inom kameraräckvidden är att algoritmerna som fattar dessa beslut hålls privata av de företag som utvecklar dem, skyddade från noggrann granskning bakom en slöja av affärshemligheter. AI Nows Whittaker pekar ut företagssekretess som förvirrar de redan problematiska metoderna för affekterkänning: "Eftersom de flesta av dessa teknologier utvecklas av privata företag, som verkar under företagssekretesslagar, ger vår rapport en stark rekommendation för skydd för etiska whistleblowers inom dessa företag." Sådan whistleblowing kommer att fortsätta att vara avgörande, skrev Whittaker, eftersom så många dataföretag behandlar integritet och transparens som ett ansvar, snarare än en dygd: "Motiveringarna varierar, men mestadels frånsäger sig [AI-utvecklare] allt ansvar och säger att det är upp till kunderna. att bestämma vad man ska göra med det." Pseudovetenskap parat med toppmodern datorteknik och placeras i ett tomrum av ansvar. Vad kan gå fel?
ZNetwork finansieras enbart genom sina läsares generositet.
Donera