Information

Just nu upplever vi problem att logga in och att nå tjänster i det inloggade läget. Vi arbetar för att lösa problemet så snart som möjligt.

Olle Engdegård

Chef Prediktiv Modellering

Olle leder gruppen för prediktiv modellering som bland annat utvecklar UCs kreditscore. Han har tidigare jobbat med prediktiv analys inom bank och försäkring. Han har även en PhD i fysik med flera forskningsresor till Sydpolen i bagaget. Olle brinner för konstruktiva samtal om AI och att vi tillsammans ska kunna förstå vilka risker och möjligheter som finns. Förutom AI, maskininlärning och kreditscoring så bloggar han här också om alla sätt vi kan använda data för att förutsäga framtiden.

Varning för siffror! Speciellt i valtid.

När något är osäkert så törstar vi efter fakta, och en av de saker som känns allra mest ”faktigt” är siffror. Det var tydligt i den första delen av Covid-pandemin: Hur många är inlagda på sjukhus? Hur stor är överdödligheten? Hur många insjuknade har vi i Sverige jämfört med resten av världen? Siffror ger oss en del svar, men siffror kan också förvirra mer än de hjälper oss. Det har vi sett nu i den svenska valrörelsen. I grunden är siffertörsten en bra attityd. Siffror är det bästa sättet att göra information konkret och möjlig att agera på. Vi vill att bilens hastighetsmätare använder siffror och inte bara en färgskala med texten LÅNGSAMT – MEDEL – SNABBT - FÖR SNABBT. Men siffror bär ibland på en skenbar exakthet som gör att vi glömmer att de ofta innehåller osäkerheter. Mer siffror är väl alltid bättre? Låt oss se på två uppmärksammade exempel från valet. Först har vi de nya dagliga opinionsmätningarna, som exempelvis SVT/Novus gjorde. De fick oss att tro att vi visste hur opinionen svängde dag för dag. Men det visste vi egentligen inte, för de frågade bara 500 personer om dagen, och de dagliga förändringarna låg ofta inom felmarginalen. Felmarginalen är ett statistiskt mått som tar hänsyn till att institutet bara har frågat ett litet urval av alla landets väljare. Men ofta finns också en annan, okänd felmarginal som inte visas, som kommer från systematiska fel i mätningen. I SVT/Novus mätning hade högersidan större stöd på vardagar, men lägre stöd på helgen. Det kan förklaras med att det under veckan är lättare att nå folk som jobbar på kontor (som lutar åt höger) än folk med praktiska jobb (som lutar åt vänster). Detta skapade en tydlig veckovis trend i mätningen, och SVT kunde minst en gång i veckan proklamera att opinionen svängt från den ena till den andra sidan. Men detta var alltså bara den okända systematiska felmarginalen som spökade. Det andra exemplet visade SVT på sin valvaka. SVT lade stort dramaturgiskt fokus på sin vallokalsundersökning (Valu), som presenterades när vallokalerna stängde. Syftet med den mätningen är dels att få en bred förståelse av hur olika väljargrupper tänker (enkäten har 61 frågor!), och dels att få en första bild av hur valet gick. Men denna bild är bara aktuell i ungefär två timmar, tills den faktiska rösträkningen börjar rapporteras in. Och mätningen hade fel i vilken sida som vann. Visserligen presenteras resultat för alla åtta partier, och resultaten för de enskilda partierna hade låg felmarginal, men det vi främst ville veta var ju vilken sida som vunnit. Blir Magda eller Ulf statsminister? Jag själv var så desperat efter fakta att jag i två timmar granskade partiernas procenttal, diskuterade konsekvenser med mina nära, lyssnade intresserat på experternas kommentarer och politikernas reaktioner – allt baserat på en mätning som hade mycket kort bästföre-datum och dessutom var fel. Jag vill ha en second opinion, tack Vanliga opinionsmätningar har en fördel: Instituten är oberoende och vi kan göra en samlad bedömning från flera olika undersökningar. Fler siffror är inte alltid bättre, men fler oberoende mätningar är bra. Det finns inte lika många vallokalsundersökningar – TV4 hade visserligen en egen, men verkade inte helt lita på den eftersom de också visade SVTs mätning. Hur som helst hade TV4 också fel i vilken sida som vann. Siffror utan säkerhet är som kärlek utan kyssar Den tråkiga slutsatsen är att man helst inte ska visa siffror där osäkerheten gör resultatet otydligt. Jag förstår att SVT ändå vill visa sin Valu, som de planerat i fyra år, men det kan göras utan dramatisk nedräkning och Hollywoodmusik. SVT borde ha varit tydligare med att det var för jämnt för att säga vilken sida som vunnit, och istället lägga tv-tid på enkätens övriga 60 frågor: Hur röstade olika väljargrupper och hur motiverade de sina beslut där inne i röstbåset? Visst är det svårt att motstå siffrornas förföriska känsla av att utgöra hårda fakta. Men de kommer ofta med osäkerheter som kan göra budskapet helt felaktigt. Är det inte den statistiska felmarginalen, så är det kanske dolda systematiska osäkerheter, som vi lätt glömmer bort. För att ta en liknelse i din vardag så kanske ditt företag använder enkäter för att mäta både kundernas och medarbetarnas nöjdhet, och sådana mätningar har aldrig 100% svarsfrekvens. Så vilka är det som inte svarade? Tenderar de att vara extra nöjda eller extra missnöjda? Sådant kan ju välta hela slutsatsen från mätningen på ända! Om resultatet har ändrats sedan förra mätningen, beror det på något ni har gjort eller på att andra, nya, grupper har svarat? Nu börjar en ny fyra år lång kurs i kritiskt tänkande Den statistiska men felaktiga ”information” vi blev matade med under valet, borde lära oss en läxa: Snabba siffror har ofta dolda felmarginaler. De här problemen finns överallt omkring oss, men vi märker dem inte eftersom vi ofta inte får se något facit. Valet är speciellt, för rösträkningen ger ju till sist ett definitivt svar. Som vi sett nu kan osäkra siffror utan förståelse lätt slösa vår tid och till och med göra oss mindre kloka än om inga siffror fanns. För att de ska vara användbara behöver de komma från en tillförlitlig process och tolkas i ett sammanhang. Det är också en bra beskrivning av vad UC gör, för vi vet att siffror då verkligen kan bli den bästa sortens fakta. /Olle Engdegård

Varför gör AI:n på detta viset?

För ett par veckor sedan hade jag det stora nöjet att delta på konferensen ”Credit Scoring and Credit Control XVII”, som normalt hålls på Edinburghs universitet, men som nu hade flyttat in i datorn som de flesta evenemang. Här samlas en stor mängd kreditscoringintresserade från hela världen, varav ungefär hälften forskar på universitet och resten jobbar på banker, konsultbolag eller kreditupplysningsföretag. Här diskuteras alla möjliga komplicerade metoder för att göra kreditscore mer precisa, stabilare och heltäckande. För varje år ser vi också att AI och Machine Learning tar allt större plats, alltså metoder för att med nya avancerade algoritmer utvinna ännu mer information ur tillgänglig data. Ett ganska vanlig ämne är också hur dessa nya kreditscore ska kunna granskas och förklaras, och lösningen är ofta att lägga till nya förklaringsalgoritmer, som hjälper oss att förstå vad som händer i systemen. Man förklarar alltså de komplicerade scoringalgoritmerna med andra komplicerade algoritmer. En förklaring, många villkor Något som sällan diskuteras är hur detta ska göras i praktiken, för de flesta förslagen är fortfarande ganska teoretiska. Det finns flera krav som en förklaring behöver ta hänsyn till, och ibland är det omöjligt att uppfylla alla samtidigt. Först har vi GDPR, som vi ännu inte vet exakt hur vi ska tolka i alla delar. Sedan vill vi värja oss från försök att överlista systemet, från personer som letar efter kryphål. Vi behöver hitta en genomtänkt design som gör förklaringen meningsfull och användbar för användaren, vilket kan kollidera med de andra kraven. Till sist kan det finnas lokala riktlinjer för hur vi ska använda AI. Just AI-riktlinjer är något som har fått mer och mer uppmärksamhet de senaste åren. Fler och fler organisationer antar sådana policydokument. Några internationella exempel är Amnesty, Europarådet, EU-kommissionen, G7 och OECD. Även nationella myndigheter i många länder har sina egna riktlinjer, och alla större företag har sina varianter. Så vilket av alla dessa dokument ska man följa egentligen? Det finns nu så många publicerade AI-riktlinjer att detta har blivit ett eget forskningsfält, där man studerar trender i hur dessa skrivs. Utgå från användaren Ja, vilket dokument ska en AI-konstruktör använda? Ett förslag, för att komma lite enklare undan, är att börja i en annan ända: Börja skissa på en konkret, meningsfull design. Det kommer ofta tvinga oss att reflektera över precis de saker som rekommendationerna vill att vi tar hänsyn till. Vilka diagram, tabeller eller förklarande texter kan skapa störst mening för användaren? Man kommer att märka att den presentation som är mest begriplig, kanske inte är användbar i praktiken. Informationen måste ju hjälpa mig att agera på något sätt. Ett vanligt skäl till att informationen inte är användbar, är att den inte är helt sann. Vad nu, varför skulle vi alls visa något som inte är sant? Jo, de flesta av de förklaringsalgoritmer som används för att beskriva ett AI-beslut, är förenklingar som inte kan ge ett exakt rätt svar. Ibland är de tillräckligt nära sanningen, men ibland har det förklarande systemet missuppfattat något. Ett studentprojekt hos oss tog fram prototyper för olika förklaringsmetoder, och lät ett antal försökspersoner utvärdera dem. Att testa AI-förklaringar på det här sättet och se vilka som faktiskt är begripliga, är förvånansvärt nog ett ganska tomt forskningsfält ännu. Resultatet av vårt projekt var lite nedslående: Det visade sig att den förklaringstyp som försökspersonerna uppskattade allra mest, var den som oftast hade fel. Men detta var tidiga steg och det finns fortfarande mycket att utforska i hur man bäst förklarar AI-beslut. Begripa det obegripliga Men måste AI-baserade beslut vara så ogenomträngliga över huvud taget? Ett helt separat forskningsfält försöker utmana komplicerade AI-system med enklare metoder och nästan lika bra precision. På sina håll ser det lovande ut, men hur väl de kommer lyckas får tiden utvisa. Till dess kan vi åtminstone vara säkra på en sak: Allt eftersom AI-beslut sprider sig, ökar också förväntningarna på att få dem förklarade på ett enkelt sätt. Varför tvärnitade plötsligt bilen av sig själv, trots att jag inte ser något hinder på vägen? Varför har Youtube börjat rekommendera mig filmer om låsdyrkning? Sådana enkla frågor behöver enkla och meningsfulla svar. /Olle

Så skapar vi trygghet i automatiska beslut

Automatiska beslut blir allt vanligare i vår vardag. Samtidigt visar en ny Sifo-undersökning att svenskar inte gillar när maskiner fattar beslut om oss och att tilliten till AI-tjänster verkar minska. Hur bemöter vi denna konflikt? I rapporten ”Svenskarna och AI 2020”, framtagen på uppdrag av bland annat UC och baserad på en Sifo-undersökning, kan vi se att misstron är stor mot de maskiner som sägs förenkla våra liv och göra oss mer produktiva. En enkätdel innehöll exempel på maskinella beslut (bland annat inom lån och a-kassa) och frågade vilka av dessa som kändes acceptabla. Så många som 62% av deltagarna kunde inte ge sitt stöd till något av alternativen. En annan fråga handlade om ansiktsigenkänning, där betydligt fler var positiva till tekniken när det gällde att låsa upp telefonen, än för att checka in på hotell. Vi verkar känna oss tryggare med att ge personlig information till vår telefon, som är vårt sällskap dygnet runt, än till ett hotelldatorsystem på en främmande plats. Det hela sammanfattas i undersökningens sista fråga, där det visade sig att de två största farhågorna kring AI är brist på personlig integritet och att systemet ska fatta fel beslut. Varför är automatiska beslut läskiga? Många automatiska beslut accepteras utan att vi tänker på det. Varför litar du egentligen på att kassaapparaten i mataffären räknar rätt och ger dig korrekt växel? Förmodligen för att du förstår exakt vad den gör och du vet att du alltid kan kontrollräkna själv. Kanske litar du också på att Skatteverkets datorer ger dig rätt slutskattebesked? Visserligen kan skatteregler vara krångliga, men de är inte godtyckliga, så om datorerna var rätt programmerade förra året borde de vara det i år också. Informationen som används för beräkningen kommer dessutom från deklarationen som du själv har skickat in, vilket ger dig stor insyn i processen. Man kan förstås fråga sig varför vi alls ska försöka höja acceptansen för automatiska beslut. Kan vi inte betrakta denna samhällsvida skepsis som ett tecken på att automatiseringen har gått för långt? Ja, kanske har det gått för långt, men inte med automatisering i sig utan med maskinbeslut som saknar förklaring och säker personuppgiftshantering. Dessutom har inramningen stor effekt på vår upplevelse: I Trelleborgs kommun automatiserade man hanteringen av ansökningar till försörjningsstöd. Ett nytt datorprogram, med aktuella regler inbyggda, kopierade textfält från andra program och kunde därmed själv bedöma om alla villkor var uppfyllda, precis som Skatteverkets datorer bedömer din skatt. Problemet uppstod när man valde att kalla detta för en ”robot”, vilket ingav en känsla av att varma mänskliga bedömningar nu var utbytta mot kalla maskinella regler. I själva verket följer datorprogrammet och dess mänskliga kollegor samma regelverk och besluten kan överklagas som vanligt. Ibland påverkas vi dock mycket konkret av att beslut har automatiserats. I Storbritannien stoppade Coronapandemin alla gymnasieprov förra våren och den ansvariga myndigheten lät istället en algoritm sätta slutbetyg för sistaårselever. Dessa betyg används för att söka till universitetet och kan därmed ha stor påverkan på en ung människas liv. Stora protester ledde till att myndigheten backade och betygen drogs tillbaka. Kan kreditupplysningskopian visa vägen? Tillit skapar vi genom att bemöta de två stora farhågorna som rapporten ”Svenskarna och AI 2020” visar på: Oro för den personliga integriteten och oro för att maskinen fattar fel beslut. Den första kan vi hantera genom att vara öppen med vilken information som används. När ett automatiskt beslut fattas, visa då vilka uppgifter det är grundat på. Detta går längre än GDPR som kräver att man informerar individen när information registreras och när individen aktivt begär ett utdrag, men inte vid själva beslutet. Det finns faktiskt sedan länge ett exempel i vårt land på hur detta kan gå till: När någon tar en kreditupplysning på dig, är kreditupplysningsbolaget skyldiga att skicka dig en kopia. Denna princip, att varje beslut ska åtföljas av en tydlig beskrivning av dess informationsunderlag, borde kunna tillämpas på flera områden. För att besvara den andra farhågan, att maskiner kanske fattar fel beslut, kan vi på liknande sätt utgå från GDPR som kräver att individen ges meningsfull information om logiken bakom. Återigen behöver vi utvidga normen och ge denna förklaring även vid beslutstillfället. Vad som egentligen räknas som ”meningsfull information” måste bedömas från fall till fall. Det finns ibland skäl till att skydda den exakta logiken, men målet måste vara en förklaring som är användbar för individen, åtminstone för att den ska kunna bedöma om lagar och regler är uppfyllda. Trygghet i att veta Oron tycks öka inför maskinella beslut och bedömningar som påverkar oss personligen. Jag tror att vi kan finna en väg framåt i en ny norm för automatiska beslut, där vi i realtid, gärna före beslutet, presenterar individen de uppgifter och den logik som ligger bakom, utformat för att vara begripligt och användbart. Vi kan vara säkra på att många beslut kommer att bli fel även framöver, oavsett om människa eller maskin har varit inblandad, men med förståelse av processen och sin egen personliga information kan automatiseringen göras tryggare. De maskinellt satta gymnasiebetygen i Storbritannien är i själva verket ett mycket positivt exempel på detta: Informationen och logiken var tydlig, vilket gav eleverna tillfälle att bedöma att detta inte var ett acceptabelt system och därmed kunde de också driva igenom en förändring. Endast öppenhet ger den möjligheten. Häromdagen hade jag förmånen att få hålla i ett seminarium på Framtidsmässan om just AI och automatiska beslut, titta gärna på inspelningen nedan om du inte var med! /Olle

Jag skulle vilja ha en AI, tack

Visste du att det danska språket är så svårt att inte ens danskarna själva förstår varandra? De låtsas faktiskt bara förstå, för att upprätthålla den gemytliga stämningen. Ibland slänger de iväg något ord som en chansning och får ett nervöst nickande till svar. Om detta låter främmande för dig så kanske du inte har sett den här fantastiska sketchen, som egentligen är gjord av narrande norrmän. Jag tycker att bilden som målas upp påminner om många samtal om hajpad teknologi. Känner du igen dig? Chefen: ”Jag tycker att vi borde jobba mer med AI.”Du: ”Ah, AI... Ja, självklart!” Ingen vill visa sig okunnig och ingen vill vara den där jobbiga personen som börjar ifrågasätta när man har ett trevligt, positivt och framåtblickande samtal. Men det finns ingen anledning till att just denna teknik ska vara höljd i dunkel. Prediktionssystem Ordet AI dyker ofta upp när man pratar om prediktionssystem som tränas på stora datamängder och därmed kan utföra väldigt specifika uppgifter med hög precision. Ofta pratar man om maskininlärning (machine learning) på samma sätt. Prediktionssystem kommer i olika varianter med flera nivåer av komplexitet. En enkel typ skulle kunna förutsäga vädret på julafton genom att använda medelvärdet i temperatur och nederbörd för just den dagen de senaste tio åren. Vore det ett bra system? Det beror förstås helt på vad vi ska använda det till. Det duger utmärkt för att planera vilka kläder som kan stuvas ned i källaren inför december, men det hjälper inte för att veta om jag behöver ett paraply på min julpromenad. När vi talar om mer komplexa prediktionssystem (där vanliga metoder är neurala nätverk och skogar av beslutsträd) är det egentligen samma fråga vi bör ställa: Vilken komplexitet behövs i det här fallet? Mer komplexitet ger fler komplikationer, så det finns alltid avvägningar att göra. Möjligheter och begränsningar När du har ställt din samtalspartner alla tuffa frågor om avvägningar mellan precision, komplexitet, förståelse, kostnad och tid till realisering, kanske hen slappnar av och tror att du är färdig. Då styr du in samtalet på nästa område som behöver klarhet: Data. Vilken data används i utvecklingen, har du juridiskt stöd för eventuell behandling av personuppgifter och är du helt säker på att ditt testdata är representativt för den verkliga miljön där systemet ska användas? Finns det risker för att systemet oavsiktligt har blivit diskriminerande? Det är inte alltid lätta frågor, men de måste diskuteras för att få en klar bild av både möjligheter och begränsningar om ni ska kunna fatta kloka beslut tillsammans. Jag skulle vilja ha det lite mindre trevligt, tack Det är allas vårt ansvar att hålla en hög nivå på våra samtal. När du talar, se till att den som lyssnar förstår vad du säger. Det låter kanske självklart, men det ställer faktiskt höga krav på dig! Använd ord som ni har en gemensam förståelse kring. När du lyssnar, fråga tills du förstår och låt ingen komma undan med diffusa begrepp. Var den där jobbiga personen som stör i hygget, det tjänar vi alla på! /Olle

AI och känslig persondata mot pandemin

Under pandemins första månader har uppmärksamheten riktats mot ny teknik för att dämpa smittan runt om i världen. Det handlar främst om hjälpmedel för effektiv smittspårning, det vill säga system som håller reda på exakt vilka jag har varit i närheten av och när detta skedde, för att dessa personer ska kunna bli kontaktade av hälsomyndigheter om jag senare visar mig vara smittad. Andra verktyg använder anonym information för att förstå hur människor rör sig och för att bevaka smittans intensitet och utveckling i olika områden. Nu när många länder lättar på en del restriktioner, ökar intresset för system som håller reda på vem som är immun och därmed kan tillåtas återvända till jobbet ungefär som förut. När man skyndar ökar alltid risken för att snubbla, så låt oss se vilka fallgropar som finns. Detta händer i Sverige och i världen Många länder gör nu försök med smittspårningsappar. Det de flesta har gemensamt är att de varnar användaren när den har varit i kontakt med någon som testats positivt för covid-19. Därefter skiljer de sig åt. Vissa låter informationen stanna i telefonen medan andra sparar uppgifter i en central databas, vilket skapar en risk för dataläckor. Vissa identifierar möten med hjälp av Bluetooth och andra med GPS, där de senare därmed måste registrera exakt var du har varit någonstans. I Sverige påbörjade Myndigheten för samhällsskydd och beredskap (MSB) utvecklingen av en app för smittspårning men avbröt projektet redan i april. Den skulle samla in personuppgifter till en databas på Amazons molntjänst, vilket Sveriges myndigheter normalt undviker eftersom amerikansk lag kan tvinga ut informationen även om den fysiskt finns här i landet. Oberoende av detta driver Lunds universitet appen Covid Symptom Tracker som fick kritik om bristande information om hur personuppgifter skulle hanteras. I våra grannländer har Norge redan hunnit inleda smittspårning via app, få kritik från Amnesty och norska Integritetsskyddsmyndigheten samt pausa systemet och radera all insamlad data. I Finland rör man sig långsammare och bereder nu en lag som uttryckligen ska göra smittspårningssystem tillåtna. I resten av världen noterar vi att över 500,000 tyskar anslutit sina pulsklockor till en covid-databas som snabbt fick kritik för bristande skydd av persondata. Indien är hittills den enda demokratin som gjort en smittspårningsapp helt obligatorisk. Hälsodata är det sista vi håller för oss själva Hälsa är idag kanske den mest känsliga personinformation som myndigheter lagrar. Kom ihåg att nästan all information som finns hos våra myndigheter är offentliga uppgifter. Inte nog med att jag kan fråga Skatteverket hur mycket du tjänar, jag kan också fråga Kronofogden om du har slarvat med underhållsstödet till din exfru och jag kan fråga tingsrätten vilka brott du har dömts för. Men det finns ingen myndighet som släpper ifrån sig uppgifter om din hälsa. En kreditupplysning innehåller mycket information och över tid kan acceptansen för vad som kan ingå där förändras, men vi känner oss säkra på att uppgifter om hälsa aldrig kommer dyka upp. Därför är det så viktigt att vara vaksamma när känsliga personuppgifter, som vår hälsa, börjar spridas på nya sätt. Även när information ska användas statistiskt utan koppling till dig som person, som den tyska pulsinsamlingen, måste de ansvariga visa att de hanterar din information på ett säkert sätt och att det inte finns någon risk för IT-läckor eller liknande. Särskilt viktigt är det när nya system ska byggas på kort tid. Arbetsförmedlingen har haft flera exempel på när teknikentusiasm har tagit överhand och dataskydd glömts bort, där det mest iögonfallande är Jobskills som skulle blir en tjänst för arbetsgivare att söka bland nyanländas cv-n men som visade sig vara en perfekt databas för flyktingspionage. Principer som kan hjälpa oss Vi behöver fler diskussioner om vad dataskydd, IT-säkerhet och GDPR innebär för att öka den allmänna förståelsen, så att vi kan fatta fler kloka beslut själva utan hjälp av jurister. Ju mer spridd sådan kunskap är i organisationer och myndigheter, desto lägre blir risken att man snubblar när det är bråttom. Vi behöver fortfarande en bättre samsyn mellan myndigheter och teknikbolag om vad dataskydd innebär. När det är pandemisk brådska, kräv att alla coronaappar överlämnar full kontroll till offentliga institutioner och ställ sedan höga krav på dessa. Då blir det lättare att bevilja undantag till GDPR om det är nödvändigt. Tillit är en resurs som man tar av varje gång man säger ”lita på mig”. Därmed måste man också fylla på detta konto. Även hantering av anonym information kräver tillit som vi har sett, så när Telia beskriver mobiltelefoners rörelser i Sverige ger de sig själva uppgiften att åter fylla på detta förtroende. Det gör man med full transparens och öppna diskussioner. När du hanterar personuppgifter har du ett stort ansvar. När du hanterar känsliga personuppgifter som hälsa har du ett mycket stort ansvar. Men det måste finnas en bred kunskap i samhället så att vi kan utkräva detta ansvar från alla de organisationer som lagrar våra känsliga uppgifter. /Olle