Ansvarsfull AI kräver mer än investeringar

Josefin Rosén
expert på etisk och tillförlitlig AI på SAS Institute
Sverige har länge tillhört de mest digitalt mogna länderna i världen. Men när artificiell intelligens (AI) nu förändrar grunden för beslutsfattande och resursfördelning, halkar offentlig sektor efter i en fråga som kan bli avgörande för framtidens välfärd: styrningen av AI.
AI används redan i dag för att till exempel effektivisera handläggning, bekämpa bedrägerier och förutse behov inom offentlig sektor. Men tekniken innebär också risker. Utan tydlig styrning kan AI leda till partiska beslut, rättsosäkerhet och förlorat förtroende från medborgarna, särskilt om tillämpningen saknar insyn, struktur och ansvar.
Riskzon i nordisk AI-användning
Samtidigt förändras det regulatoriska landskapet. EU:s AI-förordning ställer höga krav på insyn, riskklassning och mänsklig kontroll, särskilt för offentliga aktörer.
Men en ny global studie, IDC Data and AI Impact Report: The Trust Imperative som är genomförd av IDC på uppdrag av SAS Institute, visar att 33 procent av nordiska organisationer befinner sig i en så kallad ”trust danger zone”, det vill säga i en riskfylld användning av AI som innebär ett högt förtroende för tekniken, utan att faktiskt ha investerat i att AI-tillämpningen ska förtjäna det förtroendet.
För att lyckas med AI krävs förståelse för hur tekniken påverkar beslut, processer och samhällsvärden
Endast 7,5 procent uppger att de har nått en nivå där AI är fullt integrerat i verksamheten och används för att skapa konkreta, mätbara förbättringar i beslutsfattande, effektivitet och tjänsteutveckling – det som i studien definieras som transformerande AI-användning.
Problemet är inte brist på ambition. Tvärtom visar studien att hela 61,7 procent av offentliga organisationer i Europa planerar att öka sina AI-investeringar under det kommande året. Men investeringarna möts av strukturella hinder: över 55 procent anger att deras datainfrastruktur inte är centraliserad eller optimerad, och 52 procent saknar grundläggande datastyrning.
Inte bara en teknisk fråga
Utmaningen handlar inte om teknik. Den handlar om kunskap. AI hanteras fortfarande ofta som en teknisk fråga, trots att den i grunden är strategisk. För att lyckas med AI krävs förståelse för hur tekniken påverkar beslut, processer och samhällsvärden. Vi måste kunna leda, granska och ta ansvar, inte bara bygga. Men just dessa förmågor är ojämnt fördelade.
Få ledarskapsutbildningar erbjuder i dag det stöd som chefer, strateger och verksamhetsansvariga behöver för att ta AI-ansvar. Samtidigt visar studien att organisationer med stark AI-styrning inte bara hanterar risker bättre, de får också snabbare effekt av sina utvecklingsprojekt inom AI.
AI-styrning är inte ett hinder för innovation, den är en förutsättning för att innovation ska ske på ett ansvarsfullt och hållbart sätt.
Men det räcker inte med ambitioner och strategier, styrningen måste också omsättas i praktiken. Det kräver tydliga rutiner, definierade roller, kontinuerlig kompetensutveckling och en förankrad ansvarsfördelning i hela organisationen.
Innovationer kräver ansvar
För offentlig sektor är detta särskilt akut. Här slår AI:s konsekvenser direkt mot medborgare. Här krävs att människan alltid har sista ordet, inte AI. Att bara ha ett högt förtroende för AI räcker inte, det måste också motsvaras av investeringar i styrning och kunskap.
Rapporten visar att endast sex procent av offentliga organisationer i Europa har både högt förtroende för AI och en hög förmåga att leverera tillförlitlig AI.
Om Sverige vill vara ett föregångsland inom AI måste vi visa att det går att kombinera innovation med ansvar. Det börjar med att sätta kunskap och etik i centrum. Enbart tekniken löser inget, det gör vi först när vi förstår den tillräckligt väl för att styra den rätt.













