”Ansigtgenkendelse i realtid på tværs af titusinder af ansigter og registrering af op til 100 ansigter i udfordrende overfyldte fotos.”

Det var sådan, Amazon beskrev sin ansigtsdetektering Rekognition-teknologi, måneder før den befandt sig i hjertet af tvisten om politiets overvågning i De Forenede Stater.

Dokumenter, der er indhentet af American Civil Liberties Union (ACLU), afslørede, at Amazon havde licenseret sit magtfulde ansigtsgenkendelsessystem til politiet i Orlando, Florida og Washington County, Oregon, hvilket gjorde det muligt for myndighederne at identificere mennesker mod en database med titusinder af ansigter . I tilfælde af Orlando havde denne teknologi mulighed for sporing i realtid og analyseret feeds fra flere kameraer over hele byen. Amazons marketingmateriale til Rekognition havde fremmet brugen af ​​detektionssystem sammen med politibetjentens kropskameraer.

I kølvandet på afsløringerne forsøgte Orlando politichef John Mina at udjævne bekymringer og understregede, at planer om at trække optagelser fra kropskameraer til et Amazon-drevet overvågningssystem var i deres spædbarn: ”Vi ville aldrig bruge denne teknologi til at spore tilfældige borgere, indvandrere, aktivister eller mennesker i farver, ”forsikrede Mina på en pressekonference. "Pilotprogrammet er bare os, der tester denne teknologi ud for at se, om den endda fungerer."

Alligevel bygger bekymringen over misbrug af disse overvågningsteknologier på verdensplan. Kombinationen af ​​kunstig intelligens og overvågning er problematisk på både et praktisk og etisk niveau, der provokerer alarm fra højt kontor om teknologivirksomheders ansvar og retshåndhævelse over disse stærke værktøjer.

Samtidig dukker gerilja-modstand op. Sådan bøjes et citat af Paul Virilio:

Når du opfinder skibet, opfinder du også forliset. Du opfinder også fyret. Du opfinder også piraten.

Racial partisk ansigtsgenkendelse

Tegnene til effektiviteten af ​​ansigtsgenkendelse er ikke gode. En rapport fra borgerlige frihedsgrupper Big Brother Watch fandt, at London Metropolitan Police's ansigtsgenkendelseskampe i Storbritannien var 98 procent unøjagtige, mens lignende retssager fra South Wales politi på koncerter, festivaler og kongelige besøg forkert identificerede mennesker 91 procent af tid.

En prototype til HyperFace Mask, designet til at forvirre ansigtsgenkendelse. Foto: Hyphen-Labs, Adam Harvey

Denne unøjagtighed forværres af det faktum, at ansigtsgenkendelse er stærkt partisk over for hvide mænd. Undersøgelse af algoritmer udført af Microsoft, IBM og Face ++ og rapporteret af New York Times fandt, at køn var forkert identificeret i op til 1 procent af de lettere hudfarvede mænd, sammenlignet med 7 procent af de lettere hudfarvede kvinder, 12 procent af mørkere- hudfarvede hanner og 35 procent af mørkhudede kvinder.

”Selvom det kan være følsomt, når vi diskuterer ansigtsgenkendelse, adresserer vi grundlæggende identitetspolitik,” fortæller Hyphen-Labs, et internationalt kollektiv af kvindeteknologer i farver, via e-mail.

Antagelsen om, at nye teknologier er ”neutrale”, skrev Anna Lauren Hoffmann for nylig, mener den virkelighed, at de forstærker lumske racemæssige og kønsfordelinger. Det skaber en maskine, der kan overlade forskelsbehandling, og omdanne politiets organskameraer fra redskaber til ansvarlig overvågningsmotor.

For Hyphen-Labs er dette noget, der skal undersøges, forhøres, og - for at låne det ord, som Silicon Valley er meget elsket - forstyrret.

”Privatlivets fred er endnu ikke rigtig udvidet til at omfatte farvesamfund,” siger kollektivet. ”Ud over dette har kontrollen med identitet og image været en måde at undertrykke friheden fra grupper, der er blevet historisk og systemisk marginaliseret både i USA og globalt.

”Vi vil have kontrol over vores identiteter, skæbne og image.”

Et projekt af Hyphen-Labs, ledet af Ece Tankal, Ashley Baccus Clark, og Carmen Aguilar y Wedge, stiller spørgsmålstegn ved, hvordan kontrol kan brydes i et samfund med realtidssporing og øjeblikkelig ansigtsgenkendelse. Designet i samarbejde med kunstneren og forskeren Adam Harvey, skabte teamet et tørklæde, der krymper computervisionsalgoritmer. Det lilla materiale er fyldt med glitrende splodges - en camouflage i det 21. århundrede, der udskifter falsk løv for spøgelsesflader, der spammer kameraet med potentielle kampe.

”Hvis vi kan være kloge over de input, vi giver vores maskiner, kan vi narre, trolde og bruge dem til at tackle de problemer, der opstår, når vi er afhængige af dem for meget,” forklarer Hyphen-Labs.

Tørklædet er en del af Hyphen-Labs 'bredere NeuroSpekulative AfroFeminism-projekt, der også inkluderer øreringe indlejret med kameraer og en afrofuturistisk ”neurokosmetologi” salon, der alle vinkler mod at udforske sorte kvinders roller og repræsentationer inden for teknologi. Når det kommer til ansigtsgenkendelse, er tørklædet en måde at henlede opmærksomheden på den krybende vækst af nye overvågningsteknikker i det vestlige samfund, og hvordan disse mekanismer er ufuldkomne, bygget ud fra mangelfulde algoritmer, der kan narres, sidestilles, kapres.

Sådan "forstyrres" et computersystem

Hyphen-Labs indrømmer, at den faktiske effektivitet af tørklædet er uklart, idet det er baseret på open source ansigtsgenkendelsessoftware, der bliver forældet relativt hurtigt. I stedet er projektet beregnet til at overflade spørgsmål omkring privatlivets fred og overvågningspolitikken. ”Det er en provokation, der bøjer fantasien til at tænke på de kameraer, der sameksisterer med os i samfundet og fanger vores bevægelser med og uden vores samtykke,” forklarer kollektivet.

Mens Hyphen-Labs forstyrrer samtalen, forstyrrer andre ansigtsgenkendelse på et teknologisk plan.

Rammer til briller, der er designet til at narre biometriske ansigtssystemer. Foto: Carnegie Mellon University

Forskere fra Carnegie Mellon University har for eksempel udviklet en måde at bruge specielt designede briller til ”perturb” computersystemer. Mønstrene på rammerne forvirrer billedgenkendelsessystemerne, hvilket betyder, at bæreren kan undgå anerkendelse eller, mest imponerende, maskerade som en helt anden person. Et emne i undersøgelsen narrede et system til at tro, at han både var skuespillerinden Milla Jovovich og skuespilleren John Malkovich. Tal om identitetspolitik.

Et andet projekt, ledet af Stanford University-forsker Jiajun Lu, involverede at skabe ”modstridende eksempler” til at forfalske billedgenkendelsesværktøjer, herunder ansigtsidentifikation og de systemer, der bruges af selvkørende biler til at genkende stopskilte og trafik. For førstnævnte skabte Lu og hans team en camouflage, der ligner en af ​​disse Google DeepDream mareridt. ”Ved at anvende vores camouflage kan ansigter ikke detekteres fra forskellige synsvilkår: vinkler, afstande, lys osv.”, Siger Lu.

En DeepDream-esque camouflage-maske, der er lagt på en video af en persons ansigt. Foto: Jiajun Lu, Hussein Sibai og Evan Fabry

Mens camouflering i forskningen blev lagt på en persons optegnede ansigt, fortæller Lu mig, at det ville være "et stykke kage at fremstille tatoveringsmærkater for at sætte dem på en persons ansigt." Han antyder, at eksperimentelle "levende tatoveringer," fremstillet af genetisk programmerede levende celler, kunne bruges til formålet. En fordel ved dette ville være, at mønsteret kun kunne udformes til at vises under visse omstændigheder - cellerne i tatoveringerne, der er programmeret til kun at vise deres farver, når de er kommanderet, eller når særlige miljøforhold er opfyldt. I betragtning af at camouflage får dig til at se ud som en vandreturstur, ville det være nyttigt at være i stand til at tænde eller slukke den, som du vil.

Kinas testbed for overvågningsteknologi

Lu udvikler imidlertid ikke disse “modstridende eksempler” for demonstranter, hackere eller spioner. Han siger, at den grundlæggende idé bag denne forskning er at skubbe de mennesker, der designer neurale netværk til at forbedre algoritmerne i deres systemer.

”Mennesker i det dybe læringsområde [bliver] mere og mere optaget af netværkernes sikkerhed, da netværkene opnår mere og mere succes. Vi har ikke råd til sikkerhedstruslen. Der er ingen tvivl om, at flere og flere mennesker vil forsøge at angribe disse systemer. ”

Ved at ødelægge skibet er tanken, at der vil blive udsat for mangler, og der kan foretages forbedringer. Det er en påmindelse om, at selvom retssager som dem, der for nylig blev udført af Londons Metropolitan Police, er latterligt unøjagtige, udvikler teknologien sig.

Hvis du vil have et tip af, hvor det kan være i det næste årti, skal du se østover. Mens det britiske og det amerikanske politi står over for en række tekniske og politiske hindringer for at udvikle ansigtsgenkendelsessystemer, er Kina en anden sag.

SenseTime-overvågning i aktion.

SenseTime, et kinesisk firma i hjertet af landets AI-boom, blev for nylig værdsat til 3 milliarder dollars, hvilket var beregnet på grund af firmaets billedgenkendelsesegenskaber. Blandt SenseTimes kunder er et fad med regeringsrelaterede agenturer, der er i stand til at fodre virksomhedens datasæt i en størrelsesorden, der ville få mange vestlige AI-virksomheder til at slynge sig. I tale med Quartz bevægede SenseTime CEO Xu Li sig til en træningsdatabase med mere end 2 milliarder billeder: "Hvis du har adgang til regeringsdataene, har du alle data fra alle kinesere."

Til gengæld er SenseTime i stand til at levere sit Viper-overvågningssystem, som virksomheden sigter mod at håndtere 100.000 live video-feeds samtidig, og trækker optagelser fra CCTV, ATM-kameraer og kontors ansigtsscannere. Identitetspolitik er igen kernen i disse teknologier. Testbedet for store dele af denne overvågning i de sidste par år har været kanten provinsen Xinjiang, hjemsted for det uighuriske muslimske etniske mindretal, som den kinesiske stat har bebrejdet for en række terroraktiviteter. Der har været rapporter om, at Kina har brugt sin avancerede overvågning til at pålægge større central myndighed og slå ned på uighurbefolkningens rettigheder.

SenseTime har understreget, at AI-billedgenkendelse kan bruges til gode - at det kan bruges til at hjælpe med at finde manglende børn. Det er en følelse, der gentages i nylige kommentarer fra Amazon om dets anerkendelsessystem. Efter at ACLU frigav offentlige poster, der beskrev teknologigigantens forhold til de retshåndhævende myndigheder, udsendte Amazon en erklæring om, at Rekognition har "mange nyttige applikationer i den virkelige verden", herunder at finde mistede børn i forlystelsesparker.

Der er uden tvivl sandhed i dette. Ingen tvivl om, at dette ikke er hele historien. Omfanget og omfanget af billedgenkendelse udvides, og uanset om kameraet er i vores smartphones, på vores legepladser eller på en politibetjent, er vores identiteter målet. Der kan være forbedringer for at forhindre, at smarte tørklæder og briller forfalsker systemet, men når du først har opfundet skibet, kan du ikke opfinde forliset. Du kan ikke opfinde piraten.

”Vi er opmærksomme på opdateringer,” siger Hyphen-Lab. "Vi får dem på vores telefoner, computere, biler, og når ansigtsgenkendelsesteknologien udvikler sig, vil vi stadig postulere om mulige måder at undergrave dens tilsigtede brug."