Våra underrättelse- och säkerhetsmyndigheter beskriver gårdagens hotbild
23.03.2026 | Desinformasjon og Påvirkning
Under tiden rusar utvecklingen inom kognitiv påverkan förbi våra underrättelse- och säkerhetsmyndigheter.
Av: Anton Lif, ekspert på informasjonspåvirkning og fagprofil i UTSYN
Under årets första månader publicerar många nationella myndigheter sina öppna risk- och hotbildsanalyser. Dessa rapporter bidrar till att öka medvetenheten och förståelsen för den osäkra och riskfyllda utvecklingen i omvärlden samt de hot, risker och utmaningar vi som individer, organisationer och samhälle behöver hantera. Eftersom rapporterna är offentliga och ska ge en övergripande lägesbild kan de inte gå på djupet eller erbjuda tekniskt detaljerade beskrivningar inom specifika områden. Samtidigt får de inte bli alltför begränsade eller ge en direkt missvisande bild av situationen.
När jag som expert på informationspåverkan läser igenom flera av dessa rapporter slås jag dock snabbt av att våra underrättelse- och säkerhetsmyndigheter tenderar att beskriva ”gårdagens hotbild”. Hotaktörer och genomförda angrepp redovisas allt tydligare, men rapporterna missar att fånga upp hur själva informationsmiljön förändras i grunden.
Med utgångspunkt i denna observation har jag genomfört en gapanalys mellan hur kognitiva risker och hot förstås och hanteras i öppna nationella hot- och riskanalyser (från myndigheter i norra Europa) i jämförelse med publikationer från experter specialiserade på kognitiv påverkan.
Till denna analys ger jag en kompletterande lägesbeskrivning av viktiga faktorer som påverkar informationsmiljön i inledningen av 2026.
Gapanalys av kognitiva risker och hot
Analysen bygger på 30 publikationer utgivna mellan 2025 och 2026. Hälften av dessa är nationella hot- och riskrapporter från underrättelse- och säkerhetsmyndigheter i norra Europa. Den andra hälften består av expertunderlag (analyser, artiklar och läroböcker) med fokus på kognitiv påverkan författade av svenska, europeiska och amerikanska myndigheter, institut och tankesmedjor.
Syfte är att synliggöra vilka mekanismer, aktörsbilder, indikatorer och styrmedel som ofta saknas i nationella bedömningar och vilka konsekvenser det kan få för lägesförståelse, prioriteringar och val av åtgärder.
Bearbetning, tematisering och analys har genomförts med stöd av generativ AI (företags- och betalvarianter av Copilot, ChatGPT och Gemini).
Kognitiv påverkan betyder i detta sammanhang informationspåverkan inklusive närliggande begrepp som FIMI (Foreign Information Manipulation and Interference), propaganda, desinformation, missinformation, malinformation, påverkansoperationer, hacktivism och subversiv verksamhet.
Genomförda steg:
1) Identifiering av relevanta rapporter från myndigheter i norra Europa (Norden + länder runt Östersjön samt Storbritannien). En komplett referenslista återfinns i slutet av dokumentet.
2) Bearbetning och analys av vad rapporterna lyfter kopplat till kognitiv påverkan utifrån följande områden: sårbarheter, hotaktörer, metoder, exempel, slutsatser och rekommendationer.
3) Motsvarande identifiering, bearbetning och analys av expertrapporter. En komplett referenslista återfinns i slutet av artikeln.
4) Jämförelse av resultaten från de två sammanställningarna; med särskilt fokus på att identifiera gap, brister och begränsningar i de nationella rapporterna.

Identifierande gap
Gap 1: Fokus på symptom i stället för orsak
Vad: Nationella rapporter fokuserar på symtomen – synliga uttryck som desinformation, deepfakes och phishing.
Brist: Expertunderlagen visar att den stora utmaningen snarare ligger i de underliggande processerna. Exempelvis epistemisk osäkerhet (begränsad förståelse och kunskap), urvalsstyrning och hur AI förändrar tolkning och sanningsproduktion. Att fokusera på ”innehåll” gör att systemiska förändringar i informationsmiljön förblir ”osynliga”.
Gap 2: För snäv aktörsbild
Vad: Nationella rapporter betonar statliga aktörer som primära hot (till exempel Ryssland, Kina, Iran).
Brist: Expertunderlagen visar att hotlandskapet består av kommersiella tjänster, modulära nätverk och cyborg propaganda där verkliga människor samverkar med AI genererat innehåll. Detta gör attribution svårare och gränsen mellan organisk opinion och styrd påverkan suddig.
Gap 3: Fokus på angrepp snarare än på spelplanen
Vad: Nationella rapporter analyserar främst angriparnas beteenden och kända operationer.
Brist: De nationella rapporterna ignorerar i stor utsträckning plattformsekonomins logik, algoritmisk urvalsstyrning och den förändrade informationsinfrastrukturen (inklusive AI assistenter). Expertmaterialet visar att beslutsmiljön i sig manipuleras och är ett strategiskt mål; inte bara distribuerat innehåll.
Gap 4: De stora händelserna får allt fokus
Vad: Nationella rapporter illustrerar hoten genom stora händelser (val, Ukraina, nationella kampanjer).
Brist: Expertrapporterna tillför konkreta mekanismer: finansiella flöden, öppet köpta engagemang, experimentdata som avslöjar plattformarnas oförmåga att hantera icke autentiskt innehåll. Detta krävs för att förstå förändringstakten och operationernas skala.
Gap 5: Effektkedjan och beslutsmiljön analyseras inte
Vad: Nationella rapporter beskriver angrepp men inte effekterna i kognitiva och kollektiva processer.
Brist: Expertrapporterna visar att målet inte längre är att övertyga om en lögn, utan att ändra tolkningsramar, beteenden och beslutskapacitet. Vidare saknas analys av effektkedjor (till exempel KillChain för påverkan) – vilket innebär ett systematiskt kunskapsgap.
Gap 6: Saknar framåtblick och teknologisk progression
Vad: Nationella rapporter beskriver nuläget.
Brist: Expertrapporter lyfter vikten av att förstå hur informationsmiljön förändras och vikten av att arbeta med framsyn för att förstå utvecklingen av AI infrastruktur, volym och uthållighet genom AI agenter, semisyntetiska nätverks påverkan på attribution. Avsaknad av prognoser gör att riskhorisonten blir för kort.
Gap 7: För generella rekommendationer
Vad: Nationella rapporter förespråkar breda åtgärder som ”whole of society”, utbildning och bättre cyberhygien.
Brist: Expertrapporterna efterfrågar konkreta styrmedel: algoritmrevisioner, transparenskrav på rekommendationssystem, provenienskrav för AI innehåll, reglering av manipulationsmarknader och forskaråtkomst till plattformsdata.
Informationsmiljön i förändring
Igår: Syntetiskt innehåll betraktades som science fiction.
År 2019 lanserade OpenAI GPT-2, föregångaren till ChatGPT. Redan vid lanseringen varnade ledande experter för att syntetisk media skulle bli en betydande utmaning inom kognitiv påverkan. Uppmärksamheten riktades främst mot deepfakes i form av video och bild men flera varningssignaler pekade på att just syntetisk text riskerade att bli särskilt svårhanterlig. Flertalet studier bekräftade att vilseledande information kunde spridas i stor omfattning och vara svår att upptäcka eller särskilja från äkta material. En studie visade till exempel att läsare ofta bedömde GPT-2-genererade nyhetstexter för äkta, nästan lika ofta som texter från etablerade mediehus. Trots detta betraktades generativ AI och syntetisk media av den breda allmänheten mest som science fiction.
Idag: AI-assistenter och AI-agenter förändrar skalan
Under 2024 blev AI-assistenter vardag, plötsligt kunde vem som helst skräddarsy sin egen chatbot. De har stöttat oss i vardagen, men också gett kriminella, opportunister och främmande makt nya verktyg. Från 2025 har AI-agenter fått allt större uppmärksamhet och under 2026 ser det ut att bli allt vanligare, sannolikt blir det norm att både individer och organisationer utvecklar och integrerar agentlösningar i sina arbetsflöden. Tidigare var skala ofta en tröskel för hotaktörer. Nu när enorma mängder vilseledande och/eller skräddarsytt innehåll kan produceras, anpassas och spridas till minimal kostnad har informationsmiljön fått helt nya spelregler:
- Mängden vilseledande och felaktig information ökar – så pass att den börjar tränga undan och ersätta faktabaserad information.
- Risken är framför allt inte mer falska budskap, utan utveckling av en förvrängd verklighetsbild som alltmer tappar förankringen i fakta.
Med utvecklingen så fortsätter även gränserna att suddas ut:
Vad är en genuin gräsrotsrörelse och vad är enskilda individers opinionsbildning med stöd av AI-agenter?
Imorgon: Multimodal påverkan och AI Svärmar
Exempelvis bildgenerering används redan aktivt (men ofta relativt reaktivt), och utvecklingen går snabbt mot alltmer multimodala system. Nästa steg i utvecklingen kan vara ”AI-svärmar”. Illasinnade AI-svärmar är samordnade nätverk av AI-styrda konton och personas som påverkar våra (digitala) samtal. Till skillnad från enkla copy-paste-botar kan de efterlikna riktiga användare och agera långsiktigt. System som sannolikt inte enbart kommer att kunna besvara artiklar, inlägg och kommentarer i textbaserade forum, utan även generera bilder, ljud och andra uttrycksformer dynamiskt – för att förstärka narrativ och skapar ökad trovärdighet. Ett exempel är (syntetisk) konsensus, där många ”AI-personas” skapar en falsk känsla av bred enighet. Något som kan stort inflytande på opinionen, tysta avvikande röster och påverka beslut.

En systematisk underskattning av kognitiva risker och hot
Öppna risk- och hotbildsanalyser från nationella myndigheter i norra Europa beskriver allt tydligare hotaktörer och angrepp. De fångar dock inte upp hur informationsmiljön i sig förändras genom bland annat AI, automatisering och nya plattformsekosystem vilket skapar en systematisk underskattning av kognitiva risker och hot. Följden är att beslutsfattare riskerar att:
- undervärdera AI:s strukturella betydelse
- fokusera på synliga symptom (till exempel deepfakes) i stället för processer (urvalsstyrning, beteendepåverkan)
- missa hur dagens påverkansaktörer är modulära, distribuerade och delvis syntetiska
- sakna verktyg för att förstå hur tolkningar, uppmärksamhet och agendor formas
Vilket kan få förödande konsekvenser imorgon, då vi kan behöva förmåga att hantera:
”AI svärmar” som används för att skada det demokratiska samtalet. Exempelvis genom (syntetisk) konsensus, där många ”AI-personas” skapar en falsk känsla av bred enighet.
I grunden är den stora utmaningen en växande asymmetri mellan teknikutveckling och adaption (människan förmåga att anpassa sig i takt med den snabba teknikutvecklingen). Den tekniska utvecklingen är i många avseenden exponentiell, medan adoption, regelutveckling, analysförmåga och organisatorisk omställning sker linjärt. Det talar för att de identifierade gapen sannolikt kommer att öka snarare än minska över tid.
En strategisk fråga blir därför hur underrättelse- och säkerhetsaktörer kan utveckla en högre grad av adaptivitet, en förmåga som inte enbart bygger på successiv adoption, utan som i större utsträckning kan möta den hastighet och förändringslogik som präglar den tekniska utvecklingen.
En pdf med alle referanser kan lastes ned her.