Cybersecurity in 2026: drie voorspellingen van onze experts
We stelden drie van onze toonaangevende security-experts één eenvoudige, maar fundamentele vraag: wat gaat er wezenlijk anders zijn in cybersecurity in 2026?
We stelden drie van onze toonaangevende security-experts één eenvoudige, maar fundamentele vraag: wat gaat er wezenlijk anders zijn in cybersecurity in 2026? Hun antwoorden laten zien dat de toekomst niet wordt bepaald door technologie alleen, maar door snelheid, identiteit en vertrouwen.
Cybersecurity in 2026 draait niet om méér tooling. Het draait om het vermogen om sneller te handelen, identiteiten onder controle te houden en vertrouwen te borgen in een steeds complexere digitale wereld. De drie perspectieven hieronder schetsen samen een helder beeld van waar organisaties zich nú op moeten voorbereiden.
Voorspelling 1: AI maakt cyberaanvallen onvoorspelbaar
Dominic Kearne – CTI Analyst, Ekco
In 2026 zal het gebruik van AI door cybercriminelen exponentieel toenemen. Dit maakt aanvallen niet alleen geavanceerder, maar ook persoonlijker en adaptiever. Denk aan malware die zijn gedrag dynamisch aanpast tijdens een aanval.
Hierdoor veranderen aanvalspatronen fundamenteel. Bekende aanvalssignalen en traditionele Indicators of Compromise worden minder betrouwbaar. Tegelijkertijd verlaagt AI de instapdrempel: ook minder technisch onderlegde aanvallers kunnen straks aanvallen uitvoeren die voorheen specialistische kennis vereisten.
Maar AI is geen eenrichtingsverkeer. Verdedigers beschikken óók over AI-gedreven mogelijkheden. De echte uitdaging zit niet in beschikbaarheid, maar in de vraag: hoe effectief worden deze middelen ingezet?
Waarom dit relevant is voor bestuurders en IT-leiders
Meer aanvallen, vanuit een bredere groep dreigingsactoren en met minder voorspelbare methodes, vergroten de kans op succesvolle incidenten. De gevolgen zijn bekend: reputatieschade, financiële verliezen, verstoring van de operatie en in sommige gevallen blijvende schade aan de organisatie.
Wat organisaties nu al moeten doen
Ga uit van het scenario dat een aanval zal slagen en redeneer terug. De focus moet liggen op het borgen van continuïteit, integriteit van systemen en bescherming van data. Juist op het moment dat preventieve maatregelen worden doorbroken.
Voorspelling 2: AI-agents worden high-risk identiteiten
Keith Batterham – Practice Lead, Ekco
In 2026 zien we de opkomst van een zogenoemde synthetische workforce. AI-agents ontwikkelen zich van hulpmiddel tot autonome entiteiten met een eigen identiteit.
Het aantal niet-menselijke identiteiten (Non-Human Identities, NHI’s) groeit explosief. Deze digitale ‘medewerkers’ zijn vluchtig, nemen zelfstandig beslissingen en kunnen in grote aantallen worden aangemaakt en verwijderd. In veel organisaties zullen ze het aantal menselijke medewerkers ruimschoots overstijgen, terwijl het toezicht vandaag de dag minimaal is.
Met andere woorden: digitale medewerkers, op elk moment inzetbaar.
Waarom dit relevant is voor bestuurders en IT-leiders
Dit introduceert een nieuw type insider threat met hoge snelheid. Een AI-agent met te ruime rechten (of een gecompromitteerde agent) kan data exfiltreren of infrastructuur ontwrichten op machine-snelheid, sneller dan een securityteam kan reageren.
Ook op het gebied van governance en compliance ontstaan grote uitdagingen. Als een AI-agent verantwoordelijk is voor een datalek of overtreding, wordt aansprakelijkheid diffuus. Wetgeving zoals GDPR en DORA laat weinig ruimte voor onduidelijkheid, maar juist die dreigt hier te ontstaan.
Wat organisaties nu al moeten doen
Behandel AI-agents als medewerkers, niet als software. Elke niet-menselijke identiteit moet een verifieerbare identiteit hebben, een duidelijke eigenaar, strikt toegepaste least privilege-rechten en een expliciete ‘kill switch’. Precies zoals je dat verwacht bij het uitdiensttreden van een medewerker.
Voorspelling 3: Identiteitsfraude schaalt voorbij menselijke detectie
Dr. Jonny Milliken – Senior Security Manager, Ekco
Naarmate AI verder volwassen wordt, kunnen dreigingsactoren sneller en gerichter organisaties en mensen aanvallen. Vooral audio- en video-impersonatie en hypergepersonaliseerde phishingcampagnes nemen sterk toe.
Het onderscheid tussen phishing en spear phishing zal vervagen. In reactie daarop worden AI-gedreven verdedigingsmechanismen de norm. Tegelijk blijft een human-in-the-loop essentieel. Praktisch én vanuit regelgeving.
Waarom dit relevant is voor bestuurders en IT-leiders
Directie-impersonatie en frauduleuze transacties vormen een snel groeiend risico. Organisaties kunnen niet langer vertrouwen op alleen meldingen van medewerkers of reactieve controles.
Proactieve phishingdetectie, threat hunting en insider risk-programma’s worden kerncapaciteiten, los van traditionele SOC-processen.
Daarnaast is zorgvuldigheid bij het inzetten van AI cruciaal. Besturen moeten hun verantwoordelijkheden onder de EU AI Act begrijpen voordat nieuwe AI-oplossingen worden geïntroduceerd. Uiteindelijk blijkt AI-geletterdheid binnen de organisatie een belangrijkere succesfactor dan het simpelweg implementeren van tools.
Wat organisaties nu al moeten doen
Investeer in AI-kennis binnen de hele organisatie, richt duidelijke interne AI-governance in en versterk identiteitsverificatie, met name binnen finance- en servicedeskprocessen, waar impersonatie het meest effectief is.