Anthropic’s “Mythos” Marks the Rise of Advanced Offensive AI Capabilities as AI Sweden Warns of Urgent National Security Exposure
AI Risk Has Entered a New Critical Phase
Svensk version nedan
AI Risk Is No Longer a Future Concern for Critical Infrastructure Resilience
In April 2026, Anthropic revealed new details around Claude Mythos Preview, a frontier AI model representing a significant escalation in offensive AI capability. Anthropic stated that Mythos was capable of identifying vulnerabilities across major operating systems and web browsers, including platforms used by billions of people globally such as iOS, macOS, Windows, Linux, Android, and modern browser environments. Some of the identified vulnerabilities reportedly survived decades of human review and extensive automated security testing.
What previously required highly specialised expertise, significant time, and coordinated offensive teams is now increasingly being accelerated by frontier AI systems capable of reading, reasoning about, and operationalising complex code at machine speed.
The concern is no longer only whether these capabilities exist, but how quickly they may proliferate beyond tightly controlled environments. As these models continue advancing, the ability to identify, chain, and exploit vulnerabilities may increasingly become accessible to a much broader range of actors, creating implications not only for cybersecurity, but also for operational resilience, critical infrastructure, economic stability, and national preparedness.
Anthropic did not release the model publicly and instead launched Project Glasswing, a defensive cybersecurity initiative bringing together major technology companies to help secure critical software before these capabilities become more widely accessible. The initiative itself reflects how seriously parts of the technology sector are already treating the emergence of advanced offensive AI capability. At the same time, it also raises broader strategic questions for Europe around preparedness, operational resilience, and the growing dependency on globally concentrated AI and cybersecurity capabilities.
For Sweden, however, the question is more specific. What does this mean for a highly digitalised society whose public services, critical infrastructure, financial systems, energy networks, transport systems, healthcare services, industrial base, and supplier ecosystems increasingly depend on interconnected digital infrastructure?
AI Sweden framed the issue directly. Sweden “urgently needs to prepare for the imminent release of highly capable automated cyber attack agents,” and recent automated exploit chains show that “current, largely manual vulnerability management processes will be outpaced.” The conclusion is not simply that cyber threats are increasing. The conclusion is that Sweden needs a systemic shift in how software risk, vulnerability management, and organisational resilience are assessed and governed.
This is the new phase of AI risk. Not a hypothetical misuse. Not future speculation. It is already here, reshaping assumptions around cybersecurity, resilience, and national preparedness.
‘Time to Remediate’ Is the Most Critical Risk Parameter
AI has not invented organisational vulnerability. It has massively accelerated the discovery, correlation, and exploitation of weaknesses that already exist.
Across Sweden, the Nordics, and Europe, public and private institutions have spent the last decades optimising for efficiency throughout digitisation and outsourcing. These choices created efficiency, scalability, and convenience, but they also increased societal dependency on IT systems, APIs, cloud platforms, AI integrations, and interconnected supplier ecosystems.
Most organisations already carry accumulated technical debt and fragmented governance. Many still rely on periodic penetration testing, supplier questionnaires, spreadsheet based risk tracking, annual control reviews, and disconnected reporting lines. These models were built for a much slower environment.
AI Sweden described the new effect as an “AI microscope,” where models can find critical structural flaws and exploits at a rate and depth that manual research could not ever match. It also warned of a higher volume of discovered vulnerabilities, an increase in exploited zero days, and a compressed timeline to exploitation.
That compression changes everything.
A vulnerability backlog is no longer just an action point sitting on a static PowerPoint slide waiting to be discussed in the next supplier compliance committee meeting. A forgotten integration is no longer just a technical detail buried somewhere in an architecture diagram.
In the new AI-driven threat landscape, these weaknesses can rapidly become operational disruptions with serious business consequences. What previously evolved over months may now escalate within hours. The potential impact is no longer limited to compliance findings or technical debt. It can directly affect operational continuity, customer trust, financial stability, regulatory exposure, and organisational reputation simultaneously.
Organisations Must Rethink GRC for the Age of Agentic AI
The urgency is not only technological. It is geopolitical.
Sweden is now operating in a more exposed security environment, shaped by NATO membership, the war in Ukraine, increased hybrid activity across Europe, and a rising pressure on critical infrastructure.
Sweden is entering this new phase at a moment when national resilience is already being redefined.
The Swedish Government’s National Cybersecurity Strategy 2025 to 2029 sets out a vision for a resilient Sweden with a high level of cybersecurity, where essential public services can continue even during severe cybersecurity incidents. The Government also states that digital technology now affects almost every aspect of Swedish society and the economy, while cyber threats are increasing in number and complexity.
This matters because Sweden’s strength is also its exposure. Sweden is advanced, trusted, connected, and highly digitalised. Its economy and public services depend on digital continuity. Its critical infrastructure is increasingly interdependent. Its companies operate through complex supplier networks. Its public and private sectors are deeply connected.
Recent Swedish threat assessments reinforce this point. In March 2026, Sweden’s Security Service warned that the threat environment is expected to continue deteriorating, identifying Russia as a primary driver and noting increased threats linked to the U.S. Israeli military operation against Iran and its impact on the allies. SÄPO also referred to risks involving hybrid operations, sabotage, underwater cables, electricity substations, and water treatment facilities.
The Gap Between AI Capability and Organisational Readiness Is Widening Fast
Most organisations are not structurally prepared for this shift.
They may have policies. They may have compliance dashboards, annual penetration testing, supplier reviews, risk registers, and governance committees. But in most organisations, these activities still operate across fragmented and disconnected functions with static and periodic risk reporting rather than as part of a continuously connected real-time governance and risk environment capable of enabling proactive decisions.
Different functions often have access to different fragments of the organisation’s exposure. Operations, cybersecurity, procurement, legal, privacy, business continuity, and enterprise risk teams frequently operate with separate data, separate processes, and separate priorities.
The first line of defence, already overwhelmed with operational issues, emails, meetings, and supplier coordination, is still expected every 6 months to personally identify new AI risks across critical systems, assess threats with little or no historical reference points, and anticipate whether rapidly evolving AI capabilities, supplier dependencies, or geopolitical developments require new penetration tests or reassessments across critical environments.
Once reports arrive, these operationally occupied resources are expected follow up findings, ensure suppliers remediate issues on time, collect evidence, reassess exposure, update governance documentation, and manually coordinate activities across disconnected functions and tools.
The second line of defence then receives summaries of risks whose ratings may already have changed because the original assessments were performed weeks earlier within isolated operational silos. As a result, prioritisation and dependency decisions may already be based on outdated assumptions.
A few weeks later, the board receives an even older snapshot to make strategic and investment decisions based on information that may no longer fully reflect the organisation’s current operational reality or evolving exposure landscape. And in most cases, many of these critical infrastructure risks, vulnerabilities, governance activities, and response plans are stored in cloud environments operated outside the organisation’s own jurisdiction.
ART25’s Contribution and a Call for Collaboration
The only fair battle against agentic AI risk will ultimately be one fought with the power of agentic AI itself: a new form of speed symmetry between emerging threats and defensive capability.
As a result, ART25 is developing an integrated governance, risk, and compliance platform powered by agentic AI and designed for the realities of an increasingly agentic AI-driven world, with a particular focus on operational resilience, critical infrastructure, and high-trust governance environments. The platform is intended to provide real-time visibility, connected oversight, improved data quality and consistency, and a more unified operational view across digital assets, suppliers, systems, risks, controls, and operational dependencies.
Its objective is to support all lines of defence through tailored operational visibility, enabling organisations to work more proactively, continuously, and collaboratively across governance, cybersecurity, supplier oversight, and resilience activities.
At the same time, we are actively seeking to build alliances, contribute to resilience and infrastructure hardening initiatives, and collaborate with public institutions, critical infrastructure operators, technology partners, researchers, experts, and strategic stakeholders who recognise the need for stronger governance, cybersecurity, and resilience capabilities in this emerging landscape.
We are also prepared to contribute expertise, strategic support, and governance perspectives to national and cross-sector initiatives focused on AI resilience, cybersecurity preparedness, and critical infrastructure protection.
For collaboration, research, strategic dialogue, or resilience-related initiatives, you are encouraged to contact ART25 Consulting through our contact page or reach out directly to Hummam Wasfi at Hummam@ART25consulting.com
Bibliography
Anthropic. (2026). Project Glasswing: Securing critical software for the AI era. Anthropic.
https://www.ncsc.se/sv/aktuellt/samverkan-med-ai-sweden/
European Union Agency for Cybersecurity. (2025). ENISA Threat Landscape 2025. ENISA.
In Swedish
Anthropics “Mythos” markerar framväxten av avancerade offensiva AI-förmågor samtidigt som AI Sweden varnar för akut nationell säkerhetsexponering
AI-risk har gått in i en ny kritisk fas
AI-risk är inte längre en framtidsfråga för kritisk infrastrukturs resiliens
I april 2026 offentliggjorde Anthropic nya detaljer kring Claude Mythos Preview, en avancerad AI-modell som representerar en betydande eskalering av offensiv AI-kapacitet. Anthropic uppgav att Mythos kunde identifiera sårbarheter i stora operativsystem och webbläsare, inklusive plattformar som används av miljarder människor globalt, såsom iOS, macOS, Windows, Linux, Android och moderna webbläsarmiljöer. Vissa av de identifierade sårbarheterna ska enligt uppgift ha överlevt årtionden av mänsklig granskning och omfattande automatiserade säkerhetstester.
Det som tidigare krävde högspecialiserad expertis, betydande tid och samordnade offensiva säkerhetsteam accelereras nu i allt högre grad av avancerade AI-system som kan läsa, resonera kring och operationalisera komplex kod i maskinhastighet.
Frågan är inte längre enbart om dessa förmågor existerar, utan hur snabbt de kan spridas utanför strikt kontrollerade miljöer. I takt med att dessa modeller fortsätter att utvecklas kan förmågan att identifiera, kedja samman och exploatera sårbarheter bli tillgänglig för en betydligt bredare grupp aktörer, med konsekvenser inte bara för cybersäkerhet utan även för operativ resiliens, kritisk infrastruktur, ekonomisk stabilitet och nationell beredskap.
Anthropic släppte inte modellen publikt utan lanserade i stället Project Glasswing, ett defensivt cybersäkerhetsinitiativ som samlar större teknikföretag för att hjälpa till att säkra kritisk mjukvara innan dessa förmågor blir mer allmänt tillgängliga. Initiativet visar hur allvarligt delar av tekniksektorn redan ser på framväxten av avancerad offensiv AI-kapacitet. Samtidigt väcker det bredare strategiska frågor för Europa kring beredskap, operativ resiliens och det växande beroendet av globalt koncentrerade AI- och cybersäkerhetsförmågor.
För Sverige är frågan dock mer specifik. Vad innebär detta för ett högdigitaliserat samhälle vars offentliga tjänster, kritiska infrastruktur, finansiella system, energinät, transportsystem, sjukvård, industriella bas och leverantörsekosystem i allt högre grad är beroende av sammanlänkad digital infrastruktur?
AI Sweden uttryckte problematiken tydligt. Sverige ”behöver skyndsamt förbereda sig för den kommande lanseringen av högkapabla automatiserade cyberattackagenter”, och nyligen observerade automatiserade exploateringskedjor visar att ”dagens till stor del manuella processer för sårbarhetshantering kommer att bli omsprungna”. Slutsatsen är inte enbart att cyberhoten ökar. Slutsatsen är att Sverige behöver en systemisk förändring i hur mjukvarurisker, sårbarhetshantering och organisatorisk resiliens bedöms och styrs.
Detta är den nya fasen av AI-risk. Inte ett hypotetiskt missbruk. Inte framtidsspekulation. Den är redan här och förändrar synen på cybersäkerhet, resiliens och nationell beredskap.
‘Åtgärdstid’ är den mest kritiska riskfaktorn
AI har inte skapat organisatoriska sårbarheter. Den har kraftigt accelererat upptäckten, korrelationen och exploateringen av svagheter som redan existerar.
Över hela Sverige, Norden och Europa har offentliga och privata verksamheter under de senaste decennierna optimerat för effektivitet genom digitalisering och outsourcing. Dessa beslut skapade effektivitet, skalbarhet och bekvämlighet, men ökade samtidigt samhällets beroende av IT-system, API:er, molnplattformar, AI-integrationer och sammanlänkade leverantörsekosystem.
De flesta organisationer bär redan på ackumulerad teknisk skuld och fragmenterad styrning. Många förlitar sig fortfarande på periodiska penetrationstester, leverantörsfrågeformulär, kalkylbladsbaserad riskuppföljning, årliga kontrollgranskningar och separerade rapporteringslinjer. Dessa modeller byggdes för en betydligt långsammare miljö.
AI Sweden beskrev den nya effekten som ett ”AI-mikroskop”, där modeller kan identifiera kritiska strukturella svagheter och exploateringar i en takt och på en nivå som manuell forskning aldrig skulle kunna matcha. Organisationen varnade också för en högre volym upptäckta sårbarheter, en ökning av exploaterade nolldagssårbarheter och kraftigt komprimerade tidslinjer till exploatering.
Den kompressionen förändrar allt.
En backlog av sårbarheter är inte längre bara en punkt på en statisk PowerPoint-bild som väntar på att diskuteras i nästa leverantörs- eller efterlevnadskommitté. En bortglömd integration är inte längre bara en teknisk detalj begravd i ett arkitekturdiagram.
I det nya AI-drivna hotlandskapet kan dessa svagheter snabbt utvecklas till operativa störningar med allvarliga affärskonsekvenser. Det som tidigare utvecklades över månader kan nu eskalera inom timmar. Den potentiella påverkan är inte längre begränsad till efterlevnadsavvikelser eller teknisk skuld. Den kan samtidigt påverka operativ kontinuitet, kundförtroende, finansiell stabilitet, regulatorisk exponering och organisationens anseende.
Organisationer måste tänka om kring styrning, riskhantering och regelefterlevnad i den agentiska AI-eran
Brådskan är inte enbart teknologisk. Den är geopolitisk.
Sverige verkar nu i en mer exponerad säkerhetsmiljö, präglad av NATO-medlemskap, kriget i Ukraina, ökad hybridaktivitet i Europa och ett växande tryck mot kritisk infrastruktur.
Sverige går in i denna nya fas i ett läge där nationell resiliens redan håller på att omdefinieras.
Den svenska regeringens nationella cybersäkerhetsstrategi 2025–2029 beskriver visionen om ett resilient Sverige med hög cybersäkerhet där samhällsviktiga funktioner kan fortsätta fungera även under allvarliga cyberincidenter. Regeringen konstaterar samtidigt att digital teknik i dag påverkar nästan alla delar av det svenska samhället och ekonomin, samtidigt som cyberhoten ökar både i antal och komplexitet.
Detta är viktigt eftersom Sveriges styrka också är dess exponering. Sverige är avancerat, tillitsbaserat, sammankopplat och högdigitaliserat. Ekonomin och samhällsservicen är beroende av digital kontinuitet. Kritisk infrastruktur blir allt mer ömsesidigt beroende. Företag verkar genom komplexa leverantörsnätverk. Offentlig och privat sektor är djupt sammanlänkade.
Nya svenska hotbedömningar förstärker denna bild. I mars 2026 varnade Säkerhetspolisen för att hotmiljön förväntas fortsätta försämras, identifierade Ryssland som en central drivkraft och pekade på ökade hot kopplade till USA:s och Israels militära operation mot Iran och dess påverkan på allierade. Säpo hänvisade även till risker kopplade till hybridoperationer, sabotage, undervattenskablar, elstationer och vattenreningsanläggningar.
Gapet mellan AI-kapacitet och organisatorisk beredskap växer snabbt
De flesta organisationer är inte strukturellt förberedda för denna förändring.
De kan ha policyer, efterlevnadsöversikter, årliga penetrationstester, leverantörsgranskningar, riskregister och styrningskommittéer. Men i de flesta organisationer fungerar dessa aktiviteter fortfarande genom fragmenterade och separerade funktioner med statisk och periodisk riskrapportering, snarare än som en kontinuerligt sammanlänkad realtidsmiljö för styrning och riskhantering som möjliggör proaktiva beslut.
Olika funktioner har ofta tillgång till olika fragment av organisationens exponering. Drift, cybersäkerhet, inköp, juridik, dataskydd, kontinuitetshantering och övergripande riskhantering arbetar ofta med separata datakällor, processer och prioriteringar.
Första försvarslinjen, redan överbelastad av operativa frågor, mejl, möten och leverantörskoordinering, förväntas fortfarande var sjätte månad identifiera nya AI-risker i kritiska system, bedöma hot med få eller inga historiska referenspunkter och förutse om snabbt föränderliga AI-förmågor, leverantörsberoenden eller geopolitiska förändringar kräver nya penetrationstester eller omvärderingar av kritiska miljöer.
När rapporterna väl kommer förväntas dessa redan hårt belastade resurser följa upp åtgärder, säkerställa att leverantörer åtgärdar problem i tid, samla in evidens, omvärdera exponering, uppdatera styrningsdokumentation och manuellt koordinera aktiviteter mellan separerade funktioner och verktyg.
Andra försvarslinjen får därefter sammanfattningar av risker vars bedömningar redan kan ha förändrats eftersom de ursprungliga analyserna genomfördes veckor tidigare inom isolerade operativa silos. Som ett resultat kan prioriteringar och beroendebeslut redan bygga på föråldrade antaganden.
Några veckor senare får styrelsen en ännu äldre ögonblicksbild för att fatta strategiska och finansiella beslut baserade på information som kanske inte längre fullt ut speglar organisationens aktuella operativa verklighet eller föränderliga exponeringsbild. Och i de flesta fall lagras många av dessa kritiska infrastrukturrisker, sårbarheter, styrningsaktiviteter och responsplaner i molnmiljöer utanför organisationens egen jurisdiktion.
ART25:s bidrag och en uppmaning till samarbete
Den enda rättvisa kampen mot agentisk AI-risk kommer i slutändan att behöva utkämpas med hjälp av agentisk AI i sig: en ny form av hastighetssymmetri mellan framväxande hot och defensiv förmåga.
Som ett resultat utvecklar ART25 en integrerad plattform för styrning, riskhantering och regelefterlevnad, driven av agentisk AI och utformad för realiteterna i en allt mer agentisk AI-driven värld, med särskilt fokus på operativ resiliens, kritisk infrastruktur och miljöer med höga krav på tillit. Plattformen är avsedd att ge realtidsinsyn, sammanlänkad översikt, förbättrad datakvalitet och konsekvens samt en mer enhetlig operativ bild över digitala tillgångar, leverantörer, system, risker, kontroller och operativa beroenden.
Målet är att stödja samtliga försvarslinjer genom skräddarsydd operativ synlighet och därigenom möjliggöra ett mer proaktivt, kontinuerligt och samordnat arbete inom styrning, cybersäkerhet, leverantörsstyrning och resiliens.
Samtidigt söker vi aktivt att bygga allianser, bidra till initiativ för resiliens och infrastruktursäkring samt samarbeta med offentliga institutioner, operatörer av kritisk infrastruktur, teknikpartners, forskare, experter och strategiska intressenter som inser behovet av starkare styrnings-, cybersäkerhets- och resiliensförmågor i detta framväxande landskap.
Vi är också beredda att bidra med expertis, strategiskt stöd och styrningsperspektiv till nationella och sektorsövergripande initiativ fokuserade på AI-resiliens, cybersäkerhetsberedskap och skydd av kritisk infrastruktur.
För samarbete, forskning, strategisk dialog eller resiliensrelaterade initiativ är ni välkomna att kontakta ART25 Consulting via vår kontaktsida eller direkt via Hummam Wasfi på Hummam@ART25consulting.com.
Bibliografi
Anthropic. (2026). Project Glasswing: Securing critical software for the AI era. Anthropic.
https://www.ncsc.se/sv/aktuellt/samverkan-med-ai-sweden/
European Union Agency for Cybersecurity. (2025). ENISA Threat Landscape 2025. ENISA.
