Sinds 17 januari 2025 is de Digital Operational Resilience Act (DORA) van kracht. Deze Europese verordening verplicht financiële instellingen om hun digitale weerbaarheid structureel te borgen — en dat geldt nadrukkelijk ook voor AI-systemen. Toch zien we in de praktijk dat veel banken, verzekeraars en pensioenfondsen de implicaties van DORA voor hun AI-landschap onderschatten. De focus lag tot nu toe begrijpelijkerwijs op de brede ICT-risico's, maar AI brengt specifieke uitdagingen met zich mee die om gerichte aandacht vragen.

In dit artikel analyseren we de kruising van DORA en AI-governance: welke eisen zijn direct relevant voor AI-systemen, waar liggen de grootste compliance-risico's, en wat kunt u als CIO of compliance officer concreet doen om uw organisatie tijdig op orde te brengen?

DORA in het kort: scope en relevantie voor AI

DORA is van toepassing op vrijwel alle financiële entiteiten in de EU: banken, verzekeraars, beleggingsondernemingen, pensioenfondsen, betalingsinstellingen en crypto-dienstverleners. De verordening richt zich op vijf pijlers: ICT-risicobeheer, incidentrapportage, digitale weerbaarheidstesten, beheer van ICT-derdepartijrisico's en informatie-uitwisseling.

AI-systemen vallen expliciet binnen de scope van DORA wanneer zij onderdeel zijn van de ICT-diensten die een financiële instelling gebruikt voor haar bedrijfsprocessen. Denk aan kredietscoremodellen, fraudedetectiesystemen, robo-adviesfuncties, geautomatiseerde claimbeoordelingen en chatbots voor klantinteractie. Elk van deze systemen is een ICT-asset in de zin van DORA en moet als zodanig worden beheerst.

Wat DORA onderscheidt van eerdere regelgeving is de nadruk op operationele veerkracht. Het gaat niet alleen om het voorkomen van incidenten, maar om het vermogen van de organisatie om te blijven functioneren wanneer een AI-systeem faalt, gecompromitteerd wordt of onbetrouwbare uitkomsten produceert.

ICT-risicobeheer voor AI-systemen

Artikel 6 tot en met 16 van DORA stellen gedetailleerde eisen aan het ICT-risicobeheerframework van financiële instellingen. Voor AI-systemen vertaalt dit zich naar een aantal concrete verplichtingen.

Identificatie en classificatie. Elke financiële instelling moet een actueel register bijhouden van alle ICT-assets, inclusief AI-modellen en de data waarvan zij afhankelijk zijn. In de praktijk betekent dit dat u een AI-inventaris nodig heeft die per model vastlegt: het doel, de gebruikte data, de eigenaar, de criticiteit voor bedrijfsprocessen en de afhankelijkheid van derden. Veel organisaties beschikken niet over zo'n inventaris, terwijl het de basis vormt voor alle verdere compliance-activiteiten.

Risico-assessment. AI-systemen kennen risico's die bij traditionele ICT-systemen minder prominent zijn: model drift, data-bias, adversarial attacks, hallucination bij generatieve AI en onverklaarbare besluitvorming. DORA vereist dat deze risico's worden geïdentificeerd, beoordeeld en gemitigeerd binnen het bredere ICT-risicobeheerframework. Het is raadzaam om een AI-specifieke risicotaxonomie te ontwikkelen als aanvulling op uw bestaande risicoregister.

Continue monitoring. DORA verplicht real-time monitoring van ICT-systemen. Voor AI-modellen betekent dit dat u mechanismen moet inrichten die model-performance, datakwaliteit en outputbetrouwbaarheid continu bewaken. Een kredietscoremodel dat geleidelijk minder nauwkeurig wordt door verschuivende marktomstandigheden — een fenomeen bekend als concept drift — moet automatisch gedetecteerd en geëscaleerd worden voordat het tot operationele schade leidt.

Incidentrapportage bij AI-falen

DORA introduceert een geharmoniseerd incidentrapportageregime. Financiële instellingen moeten significante ICT-gerelateerde incidenten melden aan hun toezichthouder — in Nederland DNB of de AFM, afhankelijk van het type instelling.

Voor AI-systemen roept dit een fundamentele vraag op: wanneer is een AI-falen een meldplichtig incident? DORA hanteert criteria als de omvang van getroffen klanten, de duur van de verstoring, de geografische reikwijdte en de economische impact. Een fraudedetectiemodel dat gedurende twee uur geen transacties beoordeelt, valt hier waarschijnlijk onder. Maar hoe zit het met een AI-model dat structureel bepaalde klantsegmenten benadeelt zonder dat dit direct zichtbaar is in operationele dashboards?

Onze aanbeveling is om AI-specifieke incidentcriteria te definiëren die aansluiten bij de DORA-drempels, maar rekening houden met de unieke faalwijzen van AI. Leg vast bij welke afwijking in model-performance, bij welke mate van bias of bij welke onverklaarbaarheid van beslissingen het incidentproces wordt geactiveerd. Zorg ervoor dat het incidentresponseteam beschikt over AI-expertise of directe toegang heeft tot data scientists die de technische analyse kunnen uitvoeren.

Digital resilience testing van AI-modellen

DORA schrijft voor dat financiële instellingen periodiek hun digitale weerbaarheid testen. Dit omvat penetratietesten, scenarioanalyses en — voor systeemkritische instellingen — threat-led penetration testing (TLPT) onder het TIBER-EU-framework.

Voor AI-systemen heeft dit verstrekkende gevolgen. Traditionele penetratietesten richten zich op infrastructuurkwetsbaarheden: is de server goed geconfigureerd, zijn de API-endpoints beveiligd, zijn de toegangsrechten correct ingesteld? AI-systemen vereisen daarbovenop een laag van model-specifieke tests:

Adversarial testing: Kan het model gemanipuleerd worden door zorgvuldig geconstrueerde inputs? Een fraudedetectiemodel dat door subtiele patronen in transactiedata misleid kan worden, vormt een direct operationeel risico.

Robustness testing: Hoe presteert het model onder extreme maar plausibele omstandigheden? Denk aan een plotselinge economische schok, een pandemie of een cyberaanval die de inputdata verstoort.

Fairness testing: Produceert het model systematisch andere uitkomsten voor beschermde groepen? Dit is niet alleen een ethische kwestie maar ook een compliance-risico, gezien de toenemende aandacht van toezichthouders voor algoritmische discriminatie.

Het is essentieel dat deze AI-specifieke tests worden geïntegreerd in uw bestaande testframework en dat de resultaten gedocumenteerd en auditeerbaar zijn. De European Supervisory Authorities (ESA's) hebben aangekondigd dat zij specifiek zullen letten op de robuustheid van AI-systemen bij hun toezichtactiviteiten.

Beheer van AI-leveranciers als derde partij

Hoofdstuk V van DORA regelt het beheer van ICT-derdepartijrisico's. Dit is bijzonder relevant voor AI, aangezien veel financiële instellingen afhankelijk zijn van externe AI-diensten: cloud-gebaseerde ML-platforms, pre-trained foundation models, AI-as-a-Service-aanbieders en externe datafeeds die als input voor AI-modellen dienen.

DORA vereist dat financiële instellingen voor elke kritieke ICT-derdepartijdienstverlener een register bijhouden, contractuele waarborgen opnemen (waaronder exit-strategieën en auditrechten) en concentratierisico's beheren. Voor AI-leveranciers betekent dit concreet:

Model transparency: Kunt u van uw leverancier afdwingen dat u inzicht krijgt in hoe het model werkt, welke data is gebruikt voor training en hoe updates worden doorgevoerd? Bij black-box-modellen van grote technologieplatformen is dit een reëel knelpunt.

Exit-strategie: Wat gebeurt er als uw AI-leverancier de dienstverlening staakt, de prijs verhoogt of de voorwaarden wijzigt? DORA vereist dat u kunt migreren naar een alternatief zonder onacceptabele verstoring van uw bedrijfsprocessen. Voor AI-modellen die diep geïntegreerd zijn in besluitvormingsprocessen is dit vaak complexer dan bij traditionele ICT-diensten.

Concentratierisico: Hoeveel van uw AI-modellen draaien op dezelfde cloud-infrastructuur of gebruiken hetzelfde foundation model? Als een enkele leverancier uitvalt, hoeveel bedrijfsprocessen worden dan geraakt? DORA verplicht u om dit concentratierisico in kaart te brengen en te mitigeren.

De kruising met de EU AI Act

DORA staat niet op zichzelf. Financiële instellingen die AI inzetten moeten tegelijkertijd voldoen aan de EU AI Act, die per augustus 2025 gefaseerd in werking is getreden. De combinatie van beide verordeningen creëert een complex maar coherent regulatoir landschap.

De EU AI Act classificeert AI-systemen in risicocategorieën. Veel AI-toepassingen in de financiële sector — kredietbeoordeling, risicoclassificatie, verzekeringsprijsstelling — vallen in de categorie 'hoog risico' en zijn onderworpen aan strenge eisen rond transparantie, menselijk toezicht en technische documentatie. DORA voegt daar de operationele weerbaarheidsdimensie aan toe.

In de praktijk adviseren wij financiële instellingen om één geïntegreerd governance-framework voor AI te ontwikkelen dat zowel DORA als de EU AI Act adresseert. Een gefragmenteerde aanpak — met aparte compliance-trajecten voor elke verordening — leidt tot duplicatie, inconsistenties en onnodige kosten. De overlap tussen beide verordeningen (documentatie, monitoring, risicobeheer, menselijk toezicht) biedt juist kansen voor efficiëntie.

Wat u nu moet doen: vijf prioriteiten

1. Stel een AI-register samen. Inventariseer alle AI-systemen, inclusief modellen in ontwikkeling en systemen die via derden worden afgenomen. Classificeer ze op criticiteit en risicoprofiel.

2. Integreer AI in uw ICT-risicobeheerframework. Breid uw bestaande risicotaxonomie uit met AI-specifieke risico's en zorg dat model risk management onderdeel wordt van uw reguliere risicobeheerprocessen.

3. Richt AI-monitoring in. Implementeer tooling voor continue monitoring van model-performance, datakwaliteit en outputbetrouwbaarheid. Definieer escalatiedrempels en koppel deze aan uw incidentresponsproces.

4. Evalueer uw AI-leveranciers. Toets bestaande contracten aan de DORA-vereisten. Hebben uw leveranciers exit-strategieën? Bieden zij voldoende transparantie en auditrechten? Is er sprake van onaanvaardbaar concentratierisico?

5. Ontwikkel een geïntegreerd compliance-framework. Breng de eisen van DORA en de EU AI Act samen in één governance-structuur. Dit bespaart tijd en middelen en voorkomt tegenstrijdige compliance-maatregelen.

De toezichthouders hebben duidelijk gemaakt dat zij verwachten dat financiële instellingen nu actie ondernemen. Wachten is geen optie — de boetes onder DORA kunnen oplopen tot 1% van de gemiddelde dagelijkse omzet wereldwijd, en reputatieschade bij publieke handhavingsacties is vaak nog ingrijpender.

Wilt u in kaart brengen hoe uw AI-systemen ervoor staan op het gebied van DORA-compliance? Met de AI Opportunity Scan brengen we uw AI-landschap, risico's en governance-gaps in twee tot vier weken in beeld.

Plan een AI Opportunity Scan