Information

Just nu upplever vi problem att logga in och att nå tjänster i det inloggade läget. Vi arbetar för att lösa problemet så snart som möjligt.

AI behöver regleras - Hej GDPR!

2020-01-29

Googles VD Sundar Pichai skrev häromdagen en debattartikel i Financial Times om att AI behöver regleras. Jag håller med, denna teknologi skapar nya risker som behöver diskuteras öppet och även hanteras tillsammans. Varje medborgare har dessutom en starkt motiverad rätt till insyn i hur den personliga datan används.

Mycket av oron gäller just hanteringen av personlig information och där täcker GDPR redan mycket, så låt oss först se hur våra myndigheter tolkar GDPR innan vi kräver riksdagen på nya lagar.

Är det ok att använda ansiktsigenkänning?

Integritetsskyddsmyndigheten granskade flera fall av ansiktsigenkänning under 2019. Först inleddes ett ärende mot Nordic Tech House (som vid tidpunkten hade Isabella Löwengrip som storägare). Bolaget planerade att skanna ansiktena på besökare i en butik men efter Integritetsskyddsmyndigheten inledde granskningen verkar de ha backat från de ambitionerna. Sedan beslutade Integritetsskyddsmyndigheten om böter för en gymnasieskola i Skellefteå som på prov använde kameror för att automatiskt registrera elevernas närvaro. Integritetsskyddsmyndigheten avslutade sedan året med att först i princip godkänna Polisens plan på att använda ansiktsigenkänning för att utreda brott (med vissa förbehåll), men sedan underkänna Polisens planer på att skanna ansikten på Skavsta flygplats utan en lagändring.

Befintliga lagar

Dessa exempel visar att AI faktiskt är reglerat idag, åtminstone när det gäller hantering av personliga uppgifter. Vi ser att ansiktsigenkänning inte är helt fritt att använda men heller inte strikt förbjudet så länge du följer GDPR. Andra befintliga lagar kan täcka andra risker med AI: att utge sig för att vara någon annan kan vara bedrägeri och kanske kan det även anses vara bedrägeri om jag släpper lös fem tusen AI-styrda twitter-botar för egen vinnings skull. Den som med AI modifierar filmer så att ett ansikte klistras in i exempelvis en pornografisk scen (s.k. Deepfake) kan åtalas för grovt förtal eller olaga integritetsintrång. Den som använder en diskriminerande AI i sin rekryteringsprocess kan dömas för just diskriminering.

Sammanfattningsvis har vi i Sverige en stark arsenal av lagar att ta till när personer använder AI för att skada andra människor, med eller utan avsikt. Vi kan därmed se fram emot framtida AI-innovationer med trygg tillförsikt, åtminstone på kort sikt.

/Olle Engdegård

 

Olle Engdegård

Chef Prediktiv Modellering

Olle leder gruppen för prediktiv modellering som bland annat utvecklar UCs kreditscore. Han har tidigare jobbat med prediktiv analys inom bank och försäkring. Han har även en PhD i fysik med flera forskningsresor till Sydpolen i bagaget. Olle brinner för konstruktiva samtal om AI och att vi tillsammans ska kunna förstå vilka risker och möjligheter som finns. Förutom AI, maskininlärning och kreditscoring så bloggar han här också om alla sätt vi kan använda data för att förutsäga framtiden.