Sveriges arbete med AI befinner sig i ett avgörande skede. Trots hög digital mognad och god datatillgång visar flera internationella jämförelser att AI-styrningen i offentlig sektor inte håller jämna steg med den tekniska utvecklingen. I den senaste upplagan av Global AI Index hamnar Sverige på plats 57 när regeringars AI-strategier bedöms, en signal om behovet av tydligare riktning, samordning och uppföljning.
Samtidigt har regeringen i regleringsbreven för 2026 gett över 100 myndigheter i uppdrag att redovisa hur de arbetar med data och AI. Uppdragen kan ses som ett uttryck för ökade ambitioner, men också som en indikation på att samordning och styrning hittills varit otillräcklig. De ligger i linje med den nationella färdplan som AI‑kommissionen presenterade tidigare under 2025 (SOU 2025:12), där behovet av en ny styrmodell för offentlig sektor lyfts fram – med ansvar, transparens och etik inbyggt i hela AI‑livscykeln, från dataunderlag och modellutveckling till användning och uppföljning.
Högt förtroende, låg mognad
AI används redan i dag av många myndigheter och offentliga organisationer för att effektivisera handläggning, bekämpa bedrägerier och förutse behov. På kort tid har även generativ AI tagit plats i det offentliga samtalet, med löften om snabbare hantering, ökad tillgänglighet och bättre beslutsunderlag. Samtidigt visar nya data att tilltron till tekniken ökar snabbare än förmågan att använda den på ett strukturerat och ansvarsfullt sätt.
Enligt IDC Data and AI Impact Report: The Trust Imperative, framtagen av IDC på uppdrag av SAS Institute, uppger 33 procent av nordiska organisationer att de har stort förtroende för AI, utan att ha de processer, resurser och verktyg som krävs för att säkerställa att tekniken är robust rättvis och kontrollerad. Denna grupp befinner sig i det som rapporten beskriver som en ”trust danger zone”: ett växande gap mellan tilltro och faktisk kapacitet.
Förtroende för AI måste förtjänas, inte förutsättas. Det är först när vi kan styra, granska och ta ansvar för tekniken som den blir värdefull för både organisation och samhälle.
Josefin Rosén.
Expert på etisk och tillförlitlig AI på SAS Institute.
Trots att generativ AI ofta är den minst transparenta och mest svårförklarade typen av AI, visar nya data att det är just denna teknik som organisationer tenderar att lita mest på. Globalt uppger 48 procent att de har stort förtroende för generativ AI, jämfört med endast 18 procent för traditionell AI.
"Det är lätt att vilseledas av hur mänsklig och övertygande generativ AI kan verka i sin kommunikation. Men det är just den typen av AI som är svårast att granska och förstå, vilket gör behovet av tydlig styrning och riskhantering ännu viktigare," säger Josefin Rosén, expert på etisk och tillförlitlig AI på SAS Institute.
I praktiken är det få organisationer som har nått tillräckligt hög mognadsgrad för att använda tekniken på ett kontrollerat och ansvarsfullt sätt. Endast 7,5 procent av nordiska organisationer uppger att de befinner sig i det mest avancerade mognadsstadiet för AI-användning, där tekniken är fullt integrerad i verksamheten och används för att skapa konkreta, mätbara förbättringar i exempelvis beslutsfattande, effektivitet eller medborgarnytta.
"Det är ett varningstecken när förtroendet är högt men styrningen låg. Särskilt inom offentlig sektor, där AI påverkar människors rättigheter och tillgång till samhällstjänster," säger Rosén.
Offentlig sektor i fokus
Samtidigt visar rapporten att ambitionsnivån är hög. 61,7 procent av offentliga organisationer i Europa planerar att öka sina AI‑investeringar under det kommande året, och över 70 procent ser ökad personlig produktivitet som den främsta förväntade nyttan.
Men ambitionerna bromsas av tre centrala hinder:
55 procent uppger att deras datainfrastruktur är decentraliserad eller otillräcklig.
52 procent har bristande datastyrning.
41 procent anger brist på AI‑kompetens som ett stort hinder.
I Norden är dessa hinder ännu tydligare än i andra regioner. Nordiska organisationer uppger i högre grad än det globala snittet att de saknar både ledningsstöd och tydliga riktlinjer för AI‑användning.
"Problemet är inte tekniken. Utmaningen ligger i kunskap, ledarskap och förmågan att omsätta AI på ett ansvarsfullt sätt. AI är mer än ett IT‑projekt. Det är en strategisk fråga som kräver styrning i varje steg," säger Rosén.
Styrning är central
Trots att styrning ibland uppfattas som ett hinder för utveckling visar studien motsatsen. Organisationer som investerar i AI‑styrning (AI governance), transparens och etiska riktlinjer har 1,6 gånger högre sannolikhet att uppnå minst dubbel effekt från sina AI‑investeringar.
"När roller, processer och ansvar är tydliga vågar organisationer ta större steg, använda mer avancerad teknik och skala upp sina satsningar. Styrning är inte ett hinder, den är en möjliggörare," säger Rosén.
Hon betonar att styrning inte kan reduceras till enstaka policyer eller övergripande principer.
"Det handlar om att bygga in styrning i form av exempelvis, transparens, etik, dokumentation och riskbedömning från början, inte som ett tillägg i efterhand. För offentlig sektor är detta särskilt viktigt eftersom AI‑beslut får direkta konsekvenser för människor."
Kompetens och ansvar måste fördelas bredare
En av rapportens tydligaste slutsatser är att AI fortfarande ofta hanteras som en enbart teknisk fråga, trots att den i grunden är strategisk och verksamhetsövergripande. För att lyckas krävs en bredare och mer inkluderande kompetensutveckling.
Det räcker inte med teknikspecialister. Jurister, verksamhetsutvecklare, strateger och beslutsfattare behöver förstå hur AI påverkar deras område, och hur ansvar, etik och styrning omsätts i praktiken.
Josefin Rosén.
Hon pekar också på behovet av kontinuerlig utbildning, ledarskapsstöd och tvärfunktionell samverkan, inte minst mellan offentlig sektor, akademi och näringsliv.
Ett vägval för svensk AI
Sverige har länge varit ett av världens mest digitalt mogna länder, med hög användning av e‑tjänster och automatiserade processer. Det ger ett starkt utgångsläge. Men utan tydlig och sammanhållen styrning riskerar AI att urholka det förtroende som digitaliseringen hittills byggt upp.
"Om Sverige vill vara ett föregångsland inom AI måste vi visa att det går att kombinera teknisk innovation med transparens, ansvar och etik. Den uppgiften börjar inte i tekniken, den börjar hos människan," avslutar Josefin Rosén.
Fakta i korthet – IDC Data and AI Impact Report: The Trust Imperative:
48 % av organisationerna globalt har högt förtroende för generativ AI
33 % av nordiska organisationer befinner sig i en så kallad ”förtroenderiskzon” (i rapporten, trust danger zone)
Endast 7,5 % i Norden har nått högsta mognadsnivå för AI
61,7 % av offentliga organisationer i Europa planerar att öka sina AI-investeringar
70 % ser ökad personlig produktivitet som största förväntade AI-nytta
55 % uppger att deras datainfrastruktur är decentraliserad eller inte optimerad
52 % saknar strukturerad datastyrning
41 % anger brist på AI-kompetens
Organisationer med stark AI-styrning har 1,6 gånger större sannolikhet att nå hög ROI








