Vi använder cookies för att förbättra funktionaliteten på våra sajter, för att kunna rikta relevant innehåll och annonser till dig och för att vi ska kunna säkerställa att tjänsterna fungerar som de ska. Läs mer i vår cookiepolicy.

Debattinlägg: ”Förhoppningsvis går det att undvika situationen 'Computer says no'.”

Genom regler formulerade på ett språk och med förklaringar som människor förstår kan automatiserade beslutsgrunder visas och granskas. Det skriver Odd Steen, docent i informatik vid Lunds universitet.

Karaktären Carol Beer i komediserien Little Britain använder ofta frasen "Computer says no" som svar till olika klienter.
Detta är ett debattinlägg. Skribenterna svarar för åsikterna.
I den brittiska komediserien Little Britain använder karaktären Carol Beer ofta frasen "Computer says no" som svar till olika klienter. I serien handlar det om en arrogant och ohjälpsam attityd från tjänstemän och handläggare i samhället. Frasen innebär också att de förlitar sig på datoriserade informationssystem där grunden till beslut är dold. Svaret ”datorn säger nej” får räcka som förklaring.
Även om exemplet från Little Britain är skruvat för att vara komiskt, så visar det på en uppenbar risk som finns i dagens samhälle där digitalisering och automatisering tar allt större plats.
Den enorma tillgången till data och väsentligt ökad beräkningskraft i datorer har gjort att fenomenet artificiell intelligens, AI, har rönt förnyat intresse.
AI kan genom att tränas med enorma mängder data till exempel överträffa mänskliga experter när det gäller att upptäcka misstänkt hudcancer i fotografier av hudförändringar.
Dagens AI bygger på algoritmer och/eller strukturer som härmar den mänskliga hjärnans uppbyggnad och funktion. Problemet är att algoritmerna och strukturerna är dolda och inte kan granskas av andra än ett fåtal experter och konstruktörer av systemen.
Heike Erkers och Simon Vinge, företrädare för Akademikerförbundet SSR, anser att ju vanligare det blir med automatiska beslut, desto viktigare är det att samhället öppet redovisar för medborgarna hur de fattas och hänvisar till att forskning pekar på de faror som uppstår när algoritmer blir ”svarta lådor” som ingen har insyn i eller begriper sig på. (Aktuella frågor 3/10)
Problemet med dagens AI-teknik är att den är utformad just som sådana ”svarta lådor”.
En annan gren av forskningen och utvecklingen av AI har en längre tradition. De tidiga AI-systemen byggde på regler som tillämpades på fakta för att dra slutsatser som blev nya fakta och så vidare. Med tiden visade det sig ohållbart att omvandla mänsklig intelligens till ett system av regler.
Däremot visade sig regelsystem fungera utmärkt för att automatisera beslut i olika typer av verksamheter, som banker och försäkringsbolag. Till skillnad från dagens AI är reglerna för dessa beslut uppsatta på förhand. Reglerna utformas av experter i de organisationer där de ska gälla och inte av experter på AI och algoritmer. Förklaringar av utfall och beslut kan byggas in i regelhanteringen.
Genom regler formulerade på ett språk och med förklaringar som människor förstår kan automatiserade beslutsgrunder visas och granskas. På så sätt ökar möjligheten till insyn. Samma sak gäller för dem som jobbar inom en verksamhet, personalen får ökad möjlighet att förstå och förklara de automatiska beslut som organisationen tagit.
Heike Erkers och Simon Vinge föreslår att en algoritmombudsman bör inrättas för att hantera dagens brist på insyn i automatiska beslut. Det behövs nog.
Mitt förslag är att använda rätt AI för rätt uppgifter. Strukturerade beslut baserade på lagstiftning och regelverk i offentlig verksamhet och myndighetsutövning bör utgå från regler som verksamheten har satt upp. De bör vara formulerade på ett sådant sätt att de inte kräver särskild träning eller fördjupad teknisk kunskap för att läsas och förstås. Dessutom bör de vara offentliga så att varje enskild person kan få besked om vilka regler som använts i ett beslut som rör hen. Förhoppningsvis går det då att undvika situationen Computer says no.
Odd Steen, docent i informatik vid Lunds universitet.
Gå till toppen