Information

Just nu upplever vi problem att logga in och att nå tjänster i det inloggade läget. Vi arbetar för att lösa problemet så snart som möjligt.

Så skapar vi trygghet i automatiska beslut

2021-02-22

Automatiska beslut blir allt vanligare i vår vardag. Samtidigt visar en ny Sifo-undersökning att svenskar inte gillar när maskiner fattar beslut om oss och att tilliten till AI-tjänster verkar minska. Hur bemöter vi denna konflikt?

I rapporten ”Svenskarna och AI 2020”, framtagen på uppdrag av bland annat UC och baserad på en Sifo-undersökning, kan vi se att misstron är stor mot de maskiner som sägs förenkla våra liv och göra oss mer produktiva. En enkätdel innehöll exempel på maskinella beslut (bland annat inom lån och a-kassa) och frågade vilka av dessa som kändes acceptabla. Så många som 62% av deltagarna kunde inte ge sitt stöd till något av alternativen.

En annan fråga handlade om ansiktsigenkänning, där betydligt fler var positiva till tekniken när det gällde att låsa upp telefonen, än för att checka in på hotell. Vi verkar känna oss tryggare med att ge personlig information till vår telefon, som är vårt sällskap dygnet runt, än till ett hotelldatorsystem på en främmande plats. Det hela sammanfattas i undersökningens sista fråga, där det visade sig att de två största farhågorna kring AI är brist på personlig integritet och att systemet ska fatta fel beslut.

Varför är automatiska beslut läskiga?

Många automatiska beslut accepteras utan att vi tänker på det. Varför litar du egentligen på att kassaapparaten i mataffären räknar rätt och ger dig korrekt växel? Förmodligen för att du förstår exakt vad den gör och du vet att du alltid kan kontrollräkna själv. Kanske litar du också på att Skatteverkets datorer ger dig rätt slutskattebesked? Visserligen kan skatteregler vara krångliga, men de är inte godtyckliga, så om datorerna var rätt programmerade förra året borde de vara det i år också. Informationen som används för beräkningen kommer dessutom från deklarationen som du själv har skickat in, vilket ger dig stor insyn i processen.

Man kan förstås fråga sig varför vi alls ska försöka höja acceptansen för automatiska beslut. Kan vi inte betrakta denna samhällsvida skepsis som ett tecken på att automatiseringen har gått för långt? Ja, kanske har det gått för långt, men inte med automatisering i sig utan med maskinbeslut som saknar förklaring och säker personuppgiftshantering.

Dessutom har inramningen stor effekt på vår upplevelse: I Trelleborgs kommun automatiserade man hanteringen av ansökningar till försörjningsstöd. Ett nytt datorprogram, med aktuella regler inbyggda, kopierade textfält från andra program och kunde därmed själv bedöma om alla villkor var uppfyllda, precis som Skatteverkets datorer bedömer din skatt. Problemet uppstod när man valde att kalla detta för en ”robot”, vilket ingav en känsla av att varma mänskliga bedömningar nu var utbytta mot kalla maskinella regler. I själva verket följer datorprogrammet och dess mänskliga kollegor samma regelverk och besluten kan överklagas som vanligt.

Ibland påverkas vi dock mycket konkret av att beslut har automatiserats. I Storbritannien stoppade Coronapandemin alla gymnasieprov förra våren och den ansvariga myndigheten lät istället en algoritm sätta slutbetyg för sistaårselever. Dessa betyg används för att söka till universitetet och kan därmed ha stor påverkan på en ung människas liv. Stora protester ledde till att myndigheten backade och betygen drogs tillbaka.

Kan kreditupplysningskopian visa vägen?

Tillit skapar vi genom att bemöta de två stora farhågorna som rapporten ”Svenskarna och AI 2020” visar på: Oro för den personliga integriteten och oro för att maskinen fattar fel beslut.

Den första kan vi hantera genom att vara öppen med vilken information som används. När ett automatiskt beslut fattas, visa då vilka uppgifter det är grundat på. Detta går längre än GDPR som kräver att man informerar individen när information registreras och när individen aktivt begär ett utdrag, men inte vid själva beslutet. Det finns faktiskt sedan länge ett exempel i vårt land på hur detta kan gå till: När någon tar en kreditupplysning på dig, är kreditupplysningsbolaget skyldiga att skicka dig en kopia. Denna princip, att varje beslut ska åtföljas av en tydlig beskrivning av dess informationsunderlag, borde kunna tillämpas på flera områden.

För att besvara den andra farhågan, att maskiner kanske fattar fel beslut, kan vi på liknande sätt utgå från GDPR som kräver att individen ges meningsfull information om logiken bakom. Återigen behöver vi utvidga normen och ge denna förklaring även vid beslutstillfället. Vad som egentligen räknas som ”meningsfull information” måste bedömas från fall till fall. Det finns ibland skäl till att skydda den exakta logiken, men målet måste vara en förklaring som är användbar för individen, åtminstone för att den ska kunna bedöma om lagar och regler är uppfyllda.

Trygghet i att veta

Oron tycks öka inför maskinella beslut och bedömningar som påverkar oss personligen. Jag tror att vi kan finna en väg framåt i en ny norm för automatiska beslut, där vi i realtid, gärna före beslutet, presenterar individen de uppgifter och den logik som ligger bakom, utformat för att vara begripligt och användbart. Vi kan vara säkra på att många beslut kommer att bli fel även framöver, oavsett om människa eller maskin har varit inblandad, men med förståelse av processen och sin egen personliga information kan automatiseringen göras tryggare.

De maskinellt satta gymnasiebetygen i Storbritannien är i själva verket ett mycket positivt exempel på detta: Informationen och logiken var tydlig, vilket gav eleverna tillfälle att bedöma att detta inte var ett acceptabelt system och därmed kunde de också driva igenom en förändring. Endast öppenhet ger den möjligheten.

Häromdagen hade jag förmånen att få hålla i ett seminarium på Framtidsmässan om just AI och automatiska beslut, titta gärna på inspelningen nedan om du inte var med! 

/Olle

Automatiska beslut på Framtidsmässan

Olle Engdegård

Chef Prediktiv Modellering

Olle leder gruppen för prediktiv modellering som bland annat utvecklar UCs kreditscore. Han har tidigare jobbat med prediktiv analys inom bank och försäkring. Han har även en PhD i fysik med flera forskningsresor till Sydpolen i bagaget. Olle brinner för konstruktiva samtal om AI och att vi tillsammans ska kunna förstå vilka risker och möjligheter som finns. Förutom AI, maskininlärning och kreditscoring så bloggar han här också om alla sätt vi kan använda data för att förutsäga framtiden.