Shadow AI: A Critical Organisational and National Security Risk for 2026

Screenshort from Instagram in Sweden

Svensk version nedan


A boardroom scenario we are not prepared for

Imagine a board or executive strategy meeting. The discussion covers trade-sensitive strategy, future investments, supplier dependencies, pricing direction, and market positioning. These conversations are not operational details. The future of the company depends on them. If disclosed prematurely, they could affect negotiations, market behaviour, or even share price.

No one is secretly recording the meeting. No one is acting maliciously. One participant simply has ChatGPT or another generative AI assistant active on their personal phone. Voice-enabled. Always available. Designed to maintain context over time. It is not explicitly opened for the meeting. It is just there.

As Sam Altman has publicly described, ChatGPT is moving toward proactive, persistent assistance. The system is expected to always listen, advise, and remember across conversations. The value proposition is an all present assistant, from a risk perspective, continuity means exposure. From a national security perspective, it means mass surveillance.

In this scenario, the AI does not need to “record” the meeting. Conversational context is captured implicitly. That information will be retained, processed, shared, or used to improve models under terms the organisation does not control. No policy is triggered. No log is created. No one in the organisation knows this occurred. Yet information on which the company’s future depends has quietly left the room.

This does not stop at corporate meetings or ChatGPT

It reaches moments where speaking at all can change a life: a whistleblower weighing whether to come forward, a journalist protecting a source, a teenager confiding something they may later regret, or a family discussing how to leave a country safely. In these moments, nothing should persist beyond the room. Yet quiet, always-present AI can turn speech, or even hesitation, into something that outlives context, intention, and safety.



ChatGPT Is Just One Example of a Much Broader AI Risk to Privacy, National Security and Fundamental rights

What makes this risk particularly concerning is not only how aggressively these tools are marketed, but how openly and persistently this marketing is allowed to continue on major platforms such as Instagram. AI apps such as Summary AI and many others are repeatedly promoted on Instagram, Facebook, and TikTok, explicitly encouraging users to Secretly Record Meetings, with no visible intervention, warnings, or friction from the platforms themselves. The screenshot referenced here was taken from my own Instagram feed, where this type of ad has appeared consistently for several months. From a user perspective, this is rarely about malicious intent. Most users are not thinking about privacy, legality, or downstream consequences. They respond to convenience and productivity signals. When tools are designed to make life easier and are implicitly endorsed through continuous platform promotion, adoption becomes normal long before governance, oversight, or awareness mechanisms exist. Shadow AI spreads because it feels useful, not because people are reckless.

This normalisation extends well beyond individual apps. Examples already on the market include Meta Ray-Ban smart glasses, which enable discreet photo and video recording in everyday settings, and platform-level assistants such as ChatGPT being integrated into Siri, as publicly announced by Apple. Importantly, all of this discussion still sits within the realm of generative AI. The next shift, already anticipated by industry and expected to accelerate through 2026, is toward agentic AI: systems that do not merely record or summarise, but autonomously decide, act, follow up, and interact across tools and environments. When capture, interpretation, and action are combined, the risk profile moves from passive data collection to continuous delegated behaviour, opening a new class of privacy, security, accountability, and legal risks that most organisations and regulators are not yet prepared to address.

Even when no one pressed record, AI was already listening.

Why traditional governance cannot see this

Traditional security, privacy, and compliance models are not designed for ambient AI. They assume: Systems are provisioned, Tools are visible, Data capture is intentional. Shadow AI breaks all of these assumptions.

This is why shadow AI cannot be addressed by security teams or privacy teams in isolation. It sits at the intersection of privacy risk, security exposure, supplier risk, and strategic governance.

Suppliers amplify the problem. They are using your data under DPAs, but can you name one company that has adequately addressed Shadow AI in their DPAs? or have you considered external participants that join sensitive discussions while using the same consumer AI tools. Organisational boundaries offer no real protection in this model.

From organisational risk to a serious national security concern:

At scale, this stops being just a corporate issue.

Meanwhile, governments are focused on immediate and visible geopolitical, economic, and security pressures. Less attention is often paid to slow-burn, structural risks that do not announce themselves as crises but are quietly reshaping exposure over time. Shadow AI falls squarely into this category. As AI systems become embedded in everyday professional and personal life, they generate contextual and behavioural insight that sits outside traditional threat models, regulatory cycles, and oversight mechanisms.

For sectors linked to critical infrastructure, defence-adjacent technologies, healthcare, energy, and telecommunications, shadow AI creates a quiet but systemic national security exposure. Information does not need to be stole anymore, it is volunteered through normalised behaviour that governance frameworks were never designed to address. When strategic conversations across industries are continuously captured by consumer-grade AI systems, aggregated context can reveal patterns about supply chains, industrial priorities, investment flows, energy dependencies, and economic resilience. No breach is required. Inference alone is sufficient to threaten an entire nation’s sovereignty.

ART25 Consulting urges Authorities and Organizations to respond with seriousness:

For organisations, the immediate priority is governance realism. This means establishing dedicated cross-functional task forces that bring together competent privacy, security, and risk professionals with a clear mandate to address AI risks. This cannot be a static exercise. These teams must continuously monitor emerging tools, test scenarios, reassess assumptions, and adapt governance as behaviours and technologies evolve. Awareness must extend beyond enterprise systems to personal devices, informal settings, and supplier interactions. Inaction is no longer neutral. It is a decision to remain exposed.

For authorities, the responsibility is equally clear and increasingly urgent. At a minimum, regulators must actively monitor how AI tools that promote discreet or frictionless recording are being publicly marketed and normalised across digital platforms. Beyond that, enforcement must move from principle to practice. This includes ending political hesitation around the EU AI Act, finalising the designation of competent AI authorities, and prioritising enforcement decisions rather than postponement. Where obligations are clear and ignored, meaningful penalties must follow. Credibility will not come from further guidance alone, but from visible, consistent action.

There is also a broader societal obligation that can no longer be ignored. Awareness of shadow AI and behavioural capture remains low, even as these technologies increasingly shape how people think, behave, and communicate. AI literacy must therefore start early, including in schools. Societies cannot rely solely on compliance frameworks to protect individuals from risks they do not understand.

In summary, Shadow AI is not a future compliance problem. It is a present governance gap with organisational, societal, and serious national security implications. Addressing it will require experimentation, coordination, enforcement, and education across both the public and private sectors. There are no final answers yet. But there is no excuse for delay.


In Swedish

Shadow AI: En kritisk organisatorisk och nationell säkerhetsrisk för 2026

Ett styrelserumsscenario vi inte är förberedda på

Föreställ dig ett styrelse- eller ledningsmöte om strategi. Samtalet rör affärskänslig strategi, framtida investeringar, leverantörsberoenden, prisinriktning och marknadspositionering. Det här är inte operativa detaljer. Företagets framtid beror på dem. Om informationen röjs i förtid kan den påverka förhandlingar, marknadsbeteende eller till och med aktiekursen.

Ingen spelar in mötet i hemlighet. Ingen agerar med ont uppsåt. En deltagare har helt enkelt ChatGPT eller en annan generativ AI-assistent aktiv på sin privata telefon. Röstaktiverad. Alltid tillgänglig. Utformad för att upprätthålla kontext över tid. Den öppnas inte uttryckligen för mötet. Den bara finns där.

Som Sam Altman offentligt har beskrivit rör sig ChatGPT mot proaktiv och ihållande assistans. Systemet förväntas alltid lyssna, ge råd och minnas över samtal. Värdeerbjudandet är en ständigt närvarande assistent. Ur ett riskperspektiv innebär kontinuitet exponering. Ur ett nationellt säkerhetsperspektiv innebär det massövervakning.

I detta scenario behöver AI:n inte ”spela in” mötet. Samtalskontext fångas implicit. Informationen kommer att lagras, bearbetas, delas eller användas för att förbättra modeller under villkor som organisationen inte kontrollerar. Ingen policy aktiveras. Ingen logg skapas. Ingen i organisationen vet att detta har skett. Ändå har information som företagets framtid beror på i tysthet lämnat rummet.

Detta stannar inte vid företagsmöten. Det når situationer där själva handlingen att tala kan förändra ett liv: en visselblåsare som överväger om det är möjligt att träda fram, en journalist som skyddar en källa, en tonåring som anförtro sig med något de senare kan ångra, eller en familj som diskuterar hur de ska lämna ett land på ett säkert sätt. I dessa ögonblick bör ingenting bestå bortom rummet. Ändå kan tyst, ständigt närvarande AI förvandla ord, eller till och med tvekan, till något som överlever kontext, avsikt och säkerhet.

Detta stannar inte vid företagsmöten

Detta stannar inte vid företagsmöten. Det når situationer där själva handlingen att tala kan förändra ett liv: en visselblåsare som överväger om det är möjligt att träda fram, en journalist som skyddar en källa, en tonåring som anförtro sig med något de senare kan ångra, eller en familj som diskuterar hur de ska lämna ett land på ett säkert sätt.

I dessa ögonblick bör ingenting bestå bortom rummet.

Ändå kan tyst, ständigt närvarande AI förvandla ord, eller till och med tvekan, till något som överlever kontext, avsikt och säkerhet.

ChatGPT är bara ett exempel på en betydligt bredare AI-risk för integritet, nationell säkerhet och grundläggande rättigheter

Det som gör denna utveckling särskilt oroande är inte bara hur aggressivt dessa verktyg marknadsförs, utan hur öppet och uthålligt denna marknadsföring tillåts fortsätta på stora plattformar som Instagram. AI-appar som Summary AI och många andra marknadsförs återkommande på Instagram, Facebook och TikTok och uppmuntrar uttryckligen användare att i hemlighet spela in möten, utan synliga ingripanden, varningar eller friktion från plattformarnas sida.

Skärmbilden som refereras här är tagen från mitt eget Instagramflöde, där denna typ av annons har dykt upp konsekvent under flera månaders tid. Ur användarens perspektiv handlar detta sällan om illvilliga avsikter. De flesta användare reflekterar inte över integritet, laglighet eller följdkonsekvenser. De reagerar på bekvämlighet och produktivitetssignaler. När verktyg utformas för att göra livet enklare och samtidigt indirekt legitimeras genom kontinuerlig plattformsexponering, normaliseras användningen långt innan styrning, tillsyn eller medvetenhet finns på plats.

Shadow AI sprids för att det upplevs som användbart, inte för att människor är vårdslösa.

Även när ingen tryckte på inspelning lyssnade AI redan.

Normaliseringen sträcker sig långt bortom enskilda appar

Denna normalisering sträcker sig långt bortom enskilda appar. Exempel som redan finns på marknaden är Meta Ray-Ban-glasögon, som möjliggör diskret foto- och videoinspelning i vardagliga miljöer, samt plattformsbaserade assistenter såsom ChatGPT som integreras i Siri, vilket Apple offentligt har tillkännagivit.

Viktigt är att hela denna diskussion fortfarande rör sig inom ramen för generativ AI. Nästa förskjutning, som redan förutses av branschen och förväntas accelerera fram mot 2026, är agentisk AI: system som inte bara spelar in eller sammanfattar, utan som självständigt fattar beslut, agerar, följer upp och interagerar över verktyg och miljöer.

När insamling, tolkning och handling kombineras förflyttas problembilden från passiv datainsamling till kontinuerligt delegerat agerande, vilket öppnar en ny klass av integritetsmässiga, säkerhetsmässiga, ansvarsmässiga och rättsliga utmaningar som de flesta organisationer och tillsynsmyndigheter ännu inte är förberedda på att hantera.

Varför traditionell styrning inte ser detta

Traditionella modeller för säkerhet, integritet och regelefterlevnad är inte utformade för omgivande AI. De bygger på antaganden om att system är formellt införda, verktyg är synliga och datainsamling är avsiktlig.

Shadow AI bryter mot samtliga dessa antaganden.

Detta är anledningen till att Shadow AI inte kan hanteras av säkerhetsteam eller integritetsteam i isolering. Det befinner sig i skärningspunkten mellan integritetsrisk, säkerhetsexponering, leverantörsrisk och strategisk styrning.

Leverantörer förstärker problemet

Leverantörer förstärker problemet ytterligare. De behandlar organisationers data under personuppgiftsbiträdesavtal, men hur många organisationer kan med trovärdighet säga att Shadow AI har adresserats i deras DPAs? Har man övervägt externa deltagare som deltar i känsliga diskussioner samtidigt som de använder samma konsumentbaserade AI-verktyg? Organisatoriska gränser erbjuder inget verkligt skydd i denna modell.

Från organisatorisk exponering till en allvarlig nationell säkerhetsfråga

I stor skala upphör detta att vara enbart ett företagsproblem.

Samtidigt är regeringar ofta fokuserade på omedelbara och synliga geopolitiska, ekonomiska och säkerhetsmässiga utmaningar. Mindre uppmärksamhet ägnas åt långsamma, strukturella risker som inte framträder som kriser, men som gradvis omformar exponering över tid. Shadow AI tillhör tydligt denna kategori.

När AI-system blir inbäddade i vardagligt professionellt och privat liv genererar de kontextuell och beteendemässig insikt som faller utanför traditionella hotmodeller, regulatoriska cykler och tillsynsmekanismer.

För sektorer kopplade till kritisk infrastruktur, försvarsnära teknik, hälso- och sjukvård, energi och telekommunikation skapar Shadow AI en tyst men systemisk nationell säkerhetsexponering. Information behöver inte längre stjälas. Den lämnas frivilligt genom normaliserade beteenden som styrningsramverk aldrig var utformade för att hantera.

När strategiska samtal över hela industrilandskapet kontinuerligt fångas av konsumentinriktade AI-system kan aggregerad kontext avslöja mönster kring leveranskedjor, industriella prioriteringar, investeringsflöden, energiberoenden och ekonomisk motståndskraft. Inget intrång krävs. Slutledning räcker för att hota en nations suveränitet.

En uppmaning till organisationer och myndigheter

ART25 Consulting uppmanar organisationer och myndigheter att agera med allvar.

För organisationer är den omedelbara prioriteringen styrningsrealism. Det innebär att etablera dedikerade tvärfunktionella arbetsgrupper som samlar kompetens inom integritet, säkerhet och risk, med ett tydligt mandat att hantera AI-relaterade utmaningar. Detta kan inte vara en statisk övning. Dessa team måste kontinuerligt följa nya verktyg, testa scenarier, ompröva antaganden och anpassa styrningen i takt med att beteenden och teknologier förändras.

Medvetenheten måste sträcka sig bortom företagets system till personliga enheter, informella sammanhang och leverantörsrelationer. Passivitet är inte längre neutral. Det är ett beslut att förbli exponerad.

För myndigheter är ansvaret lika tydligt och alltmer brådskande. Som minimum måste tillsynsorgan aktivt följa hur AI-verktyg som främjar diskret eller friktionsfri inspelning marknadsförs och normaliseras på digitala plattformar. Därutöver måste tillsyn gå från princip till praktik. Det innebär att avsluta politisk tvekan kring EU:s AI-förordning, slutföra utpekandet av behöriga AI-myndigheter och prioritera tillsynsbeslut framför uppskov.

Där skyldigheter är tydliga och ignoreras måste meningsfulla sanktioner följa. Trovärdighet kommer inte att uppnås genom ytterligare vägledning, utan genom synliga och konsekventa åtgärder.

Ett bredare samhällsansvar

Det finns även ett bredare samhällsansvar som inte längre kan ignoreras. Medvetenheten om Shadow AI och beteendemässig datainsamling är låg, samtidigt som dessa teknologier i allt högre grad påverkar hur människor tänker, beter sig och kommunicerar. AI-kunskap måste därför börja tidigt, inklusive i skolan.

Samhällen kan inte enbart förlita sig på regelefterlevnadsramverk för att skydda individer mot risker de inte förstår.

Sammanfattning

Shadow AI är inte ett framtida efterlevnadsproblem. Det är ett pågående styrningsgap med organisatoriska, samhälleliga och allvarliga nationella säkerhetsimplikationer. Att hantera detta kommer att kräva experimenterande, samordning, tillsyn och utbildning från både offentlig och privat sektor.

Det finns inga slutgiltiga svar ännu.

Men det finns ingen ursäkt för dröjsmål.



Next
Next

Swedens’s Cybersecurity Act has now entered into force (Cybersäkerhetslagen)