Vi använder cookies för att förbättra funktionaliteten på våra sajter, för att kunna rikta relevant innehåll och annonser till dig och för att vi ska kunna säkerställa att tjänsterna fungerar som de ska. Läs mer i vår cookiepolicy.

Debattinlägg: ”Okomplicerad teknikoptimism är knappast rätt inställning.”

De problem som användningen av digitala verktyg och AI är behäftade med löses inte genom mer data, bättre data eller bättre personer på maktpositioner. Det skriver Ida Nafstad och Amin Parsa, forskare vid rättssociologiska institutionen på Lunds universitet.

Ansiktsigenkänning finns på många platser i världen. Här vid en kontroll på flygplatsen i Orlando i Florida.Bild: John Raoux
Detta är ett debattinlägg. Skribenterna svarar för åsikterna.
Niels Paarup-Petersen (C), riksdagsledamot för Malmö och inom sitt parti ansvarig för digitala frågor påpekar att han "är övertygad om att artificiell intelligens kan bidra till polisarbetet på ett positivt sätt" (Aktuella frågor 22/7).
Tekniska hjälpmedel samverkar alltid med befintliga maktstrukturer i samhället. I vissa fall förstärker tekniken maktstrukturerna, i andra fall försvagar den dem.
När det gäller lag- och ordningssektorns användning av ansiktsigenkänningsteknik visar en överväldigande mängd forskning från olika delar av världen att det resulterar i ofördelaktigheter för etniska minoriteter. Träffsäkerheten är dålig även för kvinnor. Samma resultat visar det breda register av AI-baserade hjälpmedel som används inom prediktivt polisarbete, alltså där man använder statistiska analyser av stora mängder data för att hitta mönster som sedan kan utnyttjas för förutsägelser.
Nyligen bjöds en av oss in av FN:s särskilda rapportör för samtida former av rasism, professor Tendayi Achiume, till att medverka vid ett expertmöte som hon arrangerade inför en rapport som redogör för hur AI och digital teknik reproducerar rashierarkier.
Vi företräder med andra ord inte en marginell forskningsströmning när vi pekar på de risker som är förenade med polisens användning av ansiktsigenkänningsteknik och andra AI-baserade hjälpmedel.
I vår debattartikel på Aktuella frågor 18/7 nämner vi en studie som visar att ansiktsigenkänningsverktyg betydligt oftare gör fel beträffande svarta kvinnor jämfört med vita män.
Nyligen avslutade Amazon sitt ansiktsigenkänningsverktyg, Rekognition, efter att det matchat 28 nuvarande medlemmar av den amerikanska kongressen med dömda brottslingar. Bland de kongressledamöter som identifierades som brottslingar var andelen afroamerikaner och personer med latinamerikansk härkomst oproportionerligt stor.
Liksom vid fotografering fångar ansiktsigenkänningsverktyg bilder genom att registrera ljus och dess reflektion från fotograferat hud. Ju mörkare hudfärg desto svårare för tekniken att registrera en exakt bild.
Ett liknande problem finns med de iris- och näthinneskanningsverktyg som, bland annat, används på flygplatser. De identifierar människor utifrån det mönster som venerna i ögat bildar. Det är välkänt att dessa verktyg har problem med att korrekt identifiera människor med mörkare ögonfärg och mörkare hud.
Bortsett från de problem som finns kring att insamla data är användningen av AI för att bekämpa brott problematisk. Enorma mängder data måste samlas in för att bestämma vilka personer eller invånare i vissa områden som är benägna att begå brott. Det kan handla om brottsstatistik, personlig information som polisomhändertaganden, ålder, civilstatus, drogmissbruk och tidigare domar. Genom att dessa data sammanställs skapas stigmatisering.
Överkontroll av grupper av människor eller områden producerar mer data, som rättfärdigar ännu mer kontroll av samma personer och områden. AI pekar således ut människor som kan begå ett brott, snarare än de som faktiskt begått brott. AI i polisarbete är en jakt på de ”kanske kriminella”, människor med ”våldskapital” – en lös kategori som inte existerar i lagböcker.
Niels Paarup-Petersen skriver att ”AI blir aldrig bättre än den data den får att jobba med”. Det betyder att mer och bättre data skulle kunna lösa de problem som finns med AI, något som är ett direktimporterat argument från USA:s "krig mot terror” och som visat sig kunna leda till brott mot människors rätt till integritet.
Även om man bortser från problemet med insamling av data så är mer data inte lösningen på problemet att AI tenderar att peka ut etniska minoriteter som mer brottsbenägna. Det är förvisso lätt att ta bort uppgifter om ”ras” eller kön från de algoritmer som AI arbetar med, men andra uppgifter som hemadress, dagliga rutiner, hobbyer, sjukdomshistorik eller inkomst fungerar som ett index för klass, ”ras”, och kön. Användningen av AI för brottsbekämpning tenderar inte bara att framställa rasifierade grupper som högriskgrupper, utan även de vita som tillhör de lägre skikten i samhället.
Vi är inte emot användning av AI i allmänhet. AI kan hjälpa till att bygga ett hållbart liv på jorden och ett rättvist, mer jämlikt samhälle. Det kanske kan utgöra en del i att nästa pandemi förhindras. Vi efterlyser emellertid en kritisk blick på de diskriminerande effekter som användningen av AI inom lag- och ordningssektorn kan medföra. Okomplicerad teknikoptimism är knappast rätt inställning när det finns anledning att befara att demokratiska värden undermineras.
De problem som användningen av digitala verktyg och AI är behäftade med löses inte genom mer data, bättre data eller bättre personer på maktpositioner.
Svaret är, som Harvardprofessorn Sheila Jasanoff skrivit, demokratisering av produktionen, användningen och översynen av dessa teknologier.
Ida Nafstad, filosofie doktor och biträdande lektor vid rättssociologiska institutionen på Lunds universitet.
Amin Parsa, juris doktor i folkrätt och forskare vid rättssociologiska institutionen på Lunds universitet.
Gå till toppen