← Terug naar blog

Een AI operating model

AI

Deel I: Strategische Synthese en Bestuurlijk Mandaat (L1, L2)

Sectie 1: L1 – Executive Summary: Een Aantoonbaar Compliant AI Operating Model voor de EU-Context

De adoptie van Artificiële Intelligentie (AI) is niet langer een optionele innovatie, maar een fundamentele strategische noodzaak. Voor organisaties die opereren binnen de Europese Unie, en in het bijzonder in Nederland, wordt dit streven echter geconfronteerd met een unieke en complexe realiteit: een convergentie van baanbrekende technologische kansen, zoals autonome agenten 1, en een stringent, evoluerend juridisch landschap.3 De uitdaging is het balanceren van de waardecreatie van AI met de aantoonbare naleving van de EU AI Act, NIS2, DORA en de realiteit van extraterritoriale datarisico’s.4 Een ad-hoc benadering van AI-governance is juridisch onhoudbaar en operationeel onverantwoord.

Dit rapport presenteert een blauwdruk voor een Aantoonbaar Compliant AI Operating Model. De kern van dit model is de vertaling van zes toonaangevende industrieframeworks (Microsoft, PwC, Deloitte, Gartner, MIT, HBR) 6 naar één genormaliseerd Unified Autonomy Model (U0-U5). Dit model classificeert AI-use-cases in vijf niveaus van autonomie, van U0 (Manual) tot U5 (Autonomous, Exception-Based).

Het onderscheidende vermogen van dit model is dat compliance by design wordt ingebed. Het is geen papieren exercitie. Juridische vereisten, zoals ‘menselijk toezicht’ (Art. 14 EU AI Act) 9, worden vertaald naar concrete technische controles die zijn ingebed in een Zero Trust Architectuur. Deze controles worden technisch afgedwongen via Policy-as-Code (PaC) 10 en continu gevalideerd in de MLOps-pijplijn via Continuous Testing (CT).11 Elke AI-release moet slagen voor een geautomatiseerde ‘evaluator suite’ die veiligheid, bias en data-integriteit controleert alvorens deze de productiefase bereikt.

Het bijbehorende risicoregister (L5) identificeert de top 5 risico’s: (1) Extraterritoriale datatoegang door niet-EU-overheden (bv. US CLOUD Act) 5; (2) Ongecontroleerde autonomie (‘shadow AI’) door gebrek aan centrale governance; (3) Supply chain-aanvallen gericht op AI-modellen en data 12; (4) Non-compliance met de EU AI Act, resulterend in boetes en reputatieschade; en (5) Model-drift en bias, wat leidt tot stille, foutieve besluitvorming.13

De waarde van dit operating model ligt in het mogelijk maken van risicogestuurde autonomie. Het biedt een ‘fast track’ voor low-risk use-cases (U1-U2) om snel waarde te leveren, terwijl het een robuust, audit-klaar ‘control plane’ biedt voor de veilige en conforme implementatie van high-risk (U3-U5) use-cases. Dit model stelt de organisatie in staat om te schalen, innoveren en concurreren, met behoud van vertrouwen en aantoonbare controle.

Sectie 2: L2 – Board Deck: Een Strategisch Besliskader voor AI-Investeringen

Het bestuur staat voor een strategische keuze die de toekomst van de organisatie zal bepalen. De vraag is niet of AI wordt geadopteerd, maar welk risicoprofiel de organisatie bereid is te accepteren in ruil voor waarde. Dit risicoprofiel dicteert direct het noodzakelijke investeringsniveau in het AI Control Plane.

De selectie en prioritering van AI-use-cases wordt een multidimensionale analyse 15, waarbij de potentiële waarde wordt afgewogen tegen de haalbaarheid en het risico.17 De belangrijkste beslisdimensies zijn:

De volgende beslistabel (Board Decision Table) kwantificeert de trade-offs tussen drie strategische scenario’s.21

Tabel: Board Decision Table – Scenario-analyse AI-Strategie 2025-2035

**ScenarioBeschrijvingPotentiële Waarde (ROI)****Resterend Risico (Residual Risk)****Compliance-last (EU AI Act)****Investering (Control Plane)****1. Behoedzaam (Conservative)**Focus op U1 (Assisted) en U2 (Augmented). Voornamelijk interne productiviteit (bv. Copilots). Strikt vermijden van ‘high-risk’ use-cases.Laag-Gemiddeld. Focus op efficiëntieverbetering, kostenbesparing en medewerkerstevredenheid.Laag. Risico’s worden primair beheerst door verplichte, 100% menselijke tussenkomst (HITL) per beslissing.Laag-Gemiddeld. Valt voornamelijk onder ‘limited risk’ (transparantieplicht) of ‘minimal risk’. Geen zware dossiers.Gemiddeld. Vereist een basis MLOps-pijplijn, robuuste PII-redactie 24 en audit-logging 25 om transparantie aan te tonen.2. Gebalanceerd (Balanced)Selectieve adoptie van U3 (Semi-Autonomous) voor ‘high-risk’ use-cases met een bewezen, hoge ROI (bv. in financiën, gezondheidszorg, justitie).Gemiddeld-Hoog. Een mix van efficiëntiewinst en de creatie van nieuwe, data-gedreven businessmodellen.Gemiddeld. Vereist een geavanceerd control plane. Risico’s op bias 14 en falen worden actief gemonitord. HITL-override 9 is een kritieke faalveilige factor.Hoog. Vereist volledige, audit-klare ‘high-risk’ dossiers (Art. 11) 26, data governance (Art. 10) 27 en menselijk toezicht (Art. 14).9Hoog. Dit scenario vereist de bouw van het volledige Control Plane: Zero Trust, Policy-as-Code 10, CI/CD/CT-pijplijn 11 en de Evaluator Suite.**3. Ambitieus (Ambitious)**Actief nastreven van U4/U5 (Autonomous / Agentic AI) 1 voor kernprocessen. Inzet van ‘digital labor’ 28 om marktdisruptie te forceren.Zeer Hoog. Potentieel voor exponentiële waardecreatie en het creëren van een duurzaam concurrentievoordeel.Zeer Hoog. Risico’s omvatten ‘emergent misbehavior’ van agenten 29, snelle escalatie van fouten, en ‘black box’ problemen. Hoogste blootstelling aan aansprakelijkheid.Zeer Hoog. Vereist de zwaarste bewijslast voor robuustheid, veiligheid en toezicht. Stelt de organisatie bloot aan de hoogste boetes bij falen.Zeer Hoog. Vereist state-of-the-art MLOps, geavanceerde (realtime) evaluators, ‘red teaming’ 30, en waarschijnlijk investeringen in Zone 3 Soevereine Cloud-infrastructuur.20

Aanbeveling voor het Bestuur:

Het wordt aanbevolen om te starten met een ‘Gebalanceerd’ profiel. Dit scenario dwingt de organisatie om het noodzakelijke ‘high-risk’ control plane (L3/L4) te bouwen en te bemeesteren. Dit creëert een robuust, schaalbaar en compliant ‘compliance chassis’. Zodra dit fundament operationeel is en de organisatie volwassen is in de U3-governance, kan selectief worden opgeschaald naar ‘Ambitieuze’ U4/U5-initiatieven, gebruikmakend van hetzelfde, bewezen control plane. De ‘Behoedzame’ strategie levert op lange termijn onvoldoende concurrentievoordeel op en bouwt technische schuld op in governance.

Deel II: Het Unified Autonomy & Governance Metamodel

**Sectie 3: Synthese van de Zes **AI-Frameworks

De basis van het operating model is een genormaliseerd vocabulaire voor autonomie en governance. Dit vereist de ‘reverse engineering’ en synthese van de zes leidende industrieframeworks, zoals geïdentificeerd in de onderzoeksopdracht.

Deze frameworks zijn niet onderling exclusief; ze beschrijven verschillende, complementaire assen van het AI-probleem. Gartner en PwC definiëren de Systeemcapaciteit (de Y-as: Autonomie). HBR en MIT definiëren de Mens-Systeem Interactie (de X-as: HITL/Samenwerking). Microsoft en Deloitte definiëren de Business Impact (de Z-as: Waarde/Amplificatie).

Het Unified Model (U0-U5) dat hier wordt voorgesteld, fungeert als de primaire Y-as (Autonomie), waaraan de verplichte controles van de andere assen worden gekoppeld.

Tabel: FrameworkComparison – Mapping van Bronframeworks naar Unified Autonomy Model

Unified LevelMicrosoftPwCDeloitteGartnerMIT / StanfordHBR****U0: ManualBaseline (Geen Copilot)N.v.t.N.v.t.L0 (Impliciet)Mens (Baseline)N.v.t.U1: AssistedCopilot (Suggestie)Assisted IntelligenceAutomate (Taken)L1 Basic AutomationHITL (Verplichte review)AI als ‘Tool’U2: AugmentedCopilot (Suggestie + context)Augmented IntelligenceAugment (Proces)L2 Partial AutonomyHITL (Review / Verificatie)AI als ‘Tool’ / ‘Collaborator’U3: Semi-AutonomousAutoDev (Supervisor-rol) 1Autonomous (Smal)Amplify (Capaciteit)L3 Conditional AutonomyHITL (Exception handling, Override)AI als ‘Collaborator’**U4: Autonomous (Supervised)**AutoDev / Agent (Volledig) 1Autonomous (Breed)Amplify (Nieuwe waarde)L4 High AutonomySITL (Monitoring, Audit)AI als ‘Manager’ / ‘Teammate’U5: Autonomous (Exception-Based)“Digital Labor” (Volledig autonoom) 28Autonomous (Zelflerend)Amplify (Disruptief)L5 Full AutonomySITL (Post-hoc Audit, Governance)N.v.t. (Systeem > Team)

Sectie 4: Het Unified Autonomy Model (U0-U5) als Control Plane Fundament

Het Unified Autonomy Model (U0-U5) dient als het centrale classificatie- en governancemechanisme. Elk niveau dicteert een set van verplichte, niet-onderhandelbare technische en procesmatige controles. Een AI-systeem kan niet naar een hoger U-level promoveren zonder de bijbehorende release gates te passeren.

Deel III: Het Aantoonbaar Compliant Control Plane (L3, L4, L7, L8)

Sectie 5: L4 – De Compliance Overlay: Mapping EU AI Act, NIS2, DORA

Het concept van “aantoonbaar compliant” zijn vereist een ononderbroken keten van bewijs, een ‘Golden Thread’, die juridische vereisten direct koppelt aan technische artefacten en geautomatiseerde engineeringprocessen. Een beleidsdocument alleen is onvoldoende; naleving moet in het systeem worden ingebouwd en automatisch worden gelogd.

Deze ‘Golden Thread’ volgt een logische keten:

De volgende tabel implementeert deze ‘Golden Thread’ voor de belangrijkste EU-regels.

Tabel: ComplianceOverlay – Mapping van EU-Wetgeving naar Technische Controls

**Wetgeving & Artikel****Reikwijdte (U-Level)****Technische Control (L3/L8)****MLOps Gate (L3)****Bewijsartefact (L4/L7)**EU AI Act Art. 10 (Data Governance) 27U2-U5Data Lineage tracking 40, PII Redaction engine 24, RBAC op datasets.CI Gate: Data-schema validatie. CT Gate: Bias test op data-segmenten.13Data Card (L7), Bias Test Rapport.EU AI Act Art. 11 (Tech. Documentatie) 26U3-U5 (High-Risk)Geautomatiseerde generatie van Model Card (L7) en ML-BOM 41 uit pipeline metadata.CI Gate: Controleert compleetheid van Model Card metadata (bv. intended_use).Model Card (L7), ML-BOM (L7).EU AI Act Art. 12 & 19 (Logging) 25U1-U5Immutable audit log store. Gestandaardiseerd Audit Log Schema (zie prompt). PII-redactie 24 op alle logs.N.v.t. (Runtime controle)Audit Log (on-demand), PII Redaction Test Report.EU AI Act Art. 14 (Human Oversight) 9U3-U5 (High-Risk)API voor HITL-override, ‘kill-switch’ per use-case. Monitoring dashboard voor supervisors.CT Gate: Testen van override-functionaliteit en -SLA. Release geblokkeerd bij ‘FAIL’.HITL Test Report, Log van alle (mislukte) overrides.NIS2 (Art. 21) (Supply Chain Security) 43U2-U5SLSA-compliant build pipeline 45, model signing (bv. Sigstore) 46, SBOM/ML-BOM 41 generatie.CI Gate: SBOM-generatie & validatie. CD Gate: Verplichte signatuurverificatie op alle artefacten.Geverifieerde SBOM/ML-BOM (L7), SLSA Provenance Attestatie.DORA (ICT Third-Party Risk) 47U2-U5Contractuele vastlegging van bovenstaande (NIS2) eisen met AI-leveranciers. Soevereiniteitsanalyse (zie Sectie 7).N.v.t. (Governance proces)Leveranciersrisico-assessment, Soevereiniteits-assessment (L5).

Tabel: L4 – Audit Evidence Catalog (Selectie)

Deze catalogus is het directe, audit-klare resultaat van het geautomatiseerde Control Plane.

Artefact (Bewijsstuk)Bron (Systeem)FrequentieReviewerBewaartermijn****AI Risk File (AIA/DPIA)Governance PortalPer use-case intakeCompliance Officer, Business OwnerLevensduur + 5 jaarModel Card (incl. bias/fairness) [L7]MLOps (CI Pipeline)Per modelversieProduct Owner AILevensduur + 5 jaarData Card (incl. lineage) [L7]MLOps (CI Pipeline)Per datasetversieData StewardLevensduur + 5 jaarML-BOM (CycloneDX) 41MLOps (CI Pipeline)Per buildPlatform Lead7 jaarSLSA Provenance Attestatie 45MLOps (Build Systeem)Per build(Geautomatiseerd)7 jaarEvaluator Suite Rapport 36MLOps (CT Pipeline)Per release (U2-U3), Dagelijks (U4-U5)Product Owner AI2 jaarDrift Monitoring Log (PSI/KL) 14MLOps (Observability)Continu(Geautomatiseerd)2 jaarHITL Override Test Report 9MLOps (CT Pipeline)Per release (U3-U5)Compliance Officer5 jaarAudit Log (PII Geredigeerd) 24API Gateway / RuntimeContinuAuditor (on-demand)6 maanden (Ref: Art. 19) 42

Sectie 6: L3/L8 – Security Architectuur: Zero Trust voor AI

Het fundament van het Control Plane is een Zero Trust Architectuur (ZTA).49 Het principe “never trust, always verify” wordt toegepast op elke component van de AI-workflow: agenten, prompts, modellen en data.

  1. Identity: Agents als ‘Digital Labor’

Het concept van Microsoft van AI-agenten als ‘digital labor’ 28 wordt de hoeksteen van ons identiteitsmodel. Een U3+ agent die autonoom handelt, moet traceerbaar en aansprakelijk zijn. Traditionele, statische API-keys zijn hiervoor ongeschikt.51

Het ZTA-identiteitsmodel wordt als volgt geïmplementeerd:

  1. De API Gateway als Policy Enforcement Point (PEP)

Alle AI-requests (zowel van eindgebruikers als M2M-agenten) worden gerouteerd via een centrale API Gateway (bv. Apigee, Kong, AWS API Gateway).55 Deze gateway fungeert als de centrale ZTA Policy Enforcement Point (PEP).56

De PEP is verantwoordelijk voor:

  1. Policy-as-Code (PaC) (L8): De Handhaving van de Regels

Het ZTA-model wordt afgedwongen met Policy-as-Code (PaC).10 Dit maakt governance-regels expliciet, versiebeheerbaar en geautomatiseerd. We gebruiken een combinatie van Open Policy Agent (OPA) 63 voor runtime/API-autorisatie en Kyverno 65 voor infrastructuur/Kubernetes-beleid.

L8 – Voorbeeld OPA/Rego Policy (Handhaving Release Gate bij de PEP)

Dit beleid draait op de API Gateway (PEP) en wordt aangeroepen voordat een request naar een U4-model wordt doorgelaten. Het controleert de metadata van het model, die is aangeleverd door de MLOps-pijplijn.

Codefragment

package ai.governance.pepdefault allow = false# Sta U1-U3 (non/low/medium risk) toe met valide tokenallow {    input.model.autonomy_level in {“U1”, “U2”, “U3”}    input.token.claims.scope_valid == true}# Handhaaf EU AI Act High-Risk (U4/U5) vereistenallow {    input.model.autonomy_level in {“U4”, “U5”}    input.model.risk_class == “high”       # Controleer metadata uit het MLOps-proces (L7)    input.model.metadata.slsa_level >= 3    input.model.metadata.human_override_test == “PASS”    input.model.metadata.bias_psi_score < 0.2       # Sta alleen JIT-tokens toe voor autonome actie    input.token.claims.jit_provisioned == true}

L8 – Voorbeeld Kyverno Policy (Handhaving Supply Chain in Kubernetes)

Deze policy draait in het Kubernetes-cluster en blokkeert de deployment (CD-stap) van een AI-service als deze niet voldoet aan de (NIS2) supply chain-eisen.45

YAML

apiVersion: kyverno.io/v1kind: ClusterPolicymetadata:  name: ai-slsa-sbom-requiredspec:  validationFailureAction: Enforce  rules:  – name: “require-slsa-3-for-high-risk”    match:      any:      – resources:          kinds:          annotations:            “ai.governance/autonomy-level”: “U4”            “ai.governance/risk-class”: “high”    validate:      message: “High-Risk AI (U4) deployments moeten voldoen aan SLSA 3.”      pattern:        metadata:          annotations:            “slsa.dev/provenance_level”: “3” # Controleer SLSA-niveau  – name: “require-sbom-and-signature”    match:      any:      – resources:          kinds:          annotations:            “ai.governance/autonomy-level”: “?*” # U2 en hoger    validate:      message: “AI Deployments moeten een geverifieerde Sigstore-handtekening en SBOM hebben.”      pattern:        metadata:          annotations:            “sbom.cyclonedx.org/verified”: “true”       # Vereis ML-BOM            “sigstore.dev/verified”: “true”            # Vereis handtekening

Sectie 7: L3/L7 – Secure AI Supply Chain & Data Sovereignty

  1. Secure Supply Chain (NIS2 & DORA Control)

Een AI-model is een product van zijn supply chain (data, code, basismodellen). Deze keten moet worden beveiligd.43

  1. Data Sovereignty by Design (De EU-Context)

Dit is een van de grootste risico’s voor organisaties in de EU. De Schrems II-uitspraak 71 en de realiteit van extraterritoriale wetten zoals de US CLOUD Act en FISA §702 5 creëren een fundamenteel juridisch conflict.

Het kernprobleem is dat data locatie (bv. een datacenter in Ierland) niet gelijk staat aan data soevereiniteit (immuniteit voor buitenlandse rechtsmacht).74 Een US-gebaseerde provider (bv. AWS, Azure, Google) kan juridisch worden gedwongen om data van EU-burgers, opgeslagen in de EU, over te dragen aan Amerikaanse autoriteiten, vaak zonder medeweten van de klant.5

DORA (Art. 28) en de EU AI Act (Art. 10) vereisen strikt risicobeheer, inclusief dit soevereiniteitsrisico. Technische mitigaties zijn de enige effectieve verdediging: (a) het gebruik van een 100% EU-provider (bv. T-Systems, OVH) 20 of (b) het gebruik van robuuste, door de klant beheerde encryptie (HYOK – ‘Hold Your Own Key’ of ‘Bring Your Own Key’ – BYOK) waarbij de US-provider de data nooit onversleuteld kan inzien (bv. via ‘Confidential Computing’).

Architectuur: Getierd Soevereiniteitsmodel (Sovereignty Zones)

Deel IV: De MLOps en Evaluatie-Engine (L3, L6)

Sectie 8: L3 – De CI/CD/CT Pijplijn Architectuur

Het Control Plane wordt aangedreven door een geautomatiseerde MLOps-pijplijn. Deze pijplijn breidt de traditionele CI/CD (Continuous Integration / Continuous Delivery) 77 uit met een derde, cruciale lus: CT (Continuous Testing & Training).11

Autonomy Release Gates & Rollback 38

Sectie 9: L3 – De Geautomatiseerde AI Evaluator Suite

De Evaluator Suite is het technische geweten van het AI-systeem. Het levert de kwantitatieve, objectieve data die nodig is om de Release Gates en Rollback Triggers (Sectie 8) te voeden. Het is de technische implementatie van de juridische eisen (bv. “bias managed”, “robust”).79

Tabel: The AI Evaluator Suite – Metrics & Drempels (Selectie)

CategorieMetricBron (Relevantie)****Drempel (Voorbeeld voor Rollback)1. KwaliteitLatency (p95)(Prompt <Evaluators>)< 1500msCost per 1k Tokens(Prompt <Evaluators>)< $0.052. Veiligheid (Safety)****Jailbreak Block RateMeet weerstand tegen ‘jailbreaks’.30> 95%Prompt Injection Block RateMeet weerstand tegen OWASP LLM #1.36> 99%Toxicity RateMeet het percentage toxische of ongewenste output.36< 0.1%PII Exfiltration RateMeet of PII wordt gelekt in de output.24== 0.0%3. Bias & Fairness****Disparate Impact RatioMeet of uitkomsten nadelig zijn voor beschermde groepen.13Binnen 0.8 – 1.25Group Fairness (bv. Equalized Odds)Meet gelijke kansen/foutmarges voor groepen.81Delta < 0.14. Drift****Population Stability Index (PSI)Meet ‘population drift’ (verandering in input-distributie).14< 0.2KL-DivergenceMeet ‘concept drift’ (verandering in relatie input-output).85< 0.15. XAI****Uncertainty Score(Indien model dit levert) Score voor modelonzekerheid.> 0.8 (Trigger HITL)Rationale ExtractabilityTest of het model een coherente uitleg kan geven.PASS / FAIL

Sectie 10: L6 – Operationele Runbooks (Selectie)

De geautomatiseerde systemen (Sectie 8, 9) worden ondersteund door heldere, menselijke procedures (L6 Runbooks).

Runbook 1: Incident Response – High-Risk Model Rollback

Runbook 2: Operational Response – Data Drift (PSI > 0.2)

Runbook 3: Audit Readiness – EU AI Act High-Risk

Deel V: Het Target Operating Model (TOM) en de Roadmap (L3, L5)

Sectie 11: L3 – Organisatorisch Ontwerp: Team Topologies voor AI

Het technische Control Plane (Deel III) kan alleen functioneren binnen een adequaat menselijk besturingssysteem (TOM). Een traditioneel, gecentraliseerd ‘Center of Excellence’ (CoE) voor AI creëert een bottleneck en belemmert innovatie in de businesslijnen.

We adopteren het Team Topologies 87 model, dat superieur is voor het schalen van AI en platform engineering.88

Tabel: L3 – RACI Matrix voor AI Governance Processen

Gebaseerd op de rollen 70:

Taak / ProcesBusiness Owner (Domein)Product Owner (AI Use-Case)Platform Lead (Techniek)Data Steward (Data)Security OfficerCompliance Officer1. Use-Case IntakeA (Accountable)R (Responsible)CCIC2. Risicoklasse Bepaling (EU AI Act)CRIICA3. Bouw AI Risk File (AIA/DPIA)ARICCA****4. Data Governance (Art. 10)CCIR/AIC5. Ontwikkeling & TrainingIAR (levert platform)CCI6. Model Release (U1-U2 Low Risk)IAR (automatiseert)III7. Model Release (U3-U5 High Risk)CAR (automatiseert)CCA (Sign-off)8. Runtime Monitoring (Drift, Bias)IAR (levert tools)CIC9. Incident Response (Security)CICIAR (rapportage)10. Incident Response (Model/Drift)IAR (ondersteunt)CII11. Audit (Extern)CCCCCA/R

Sectie 12: L5 – Enterprise Risk Register (Gekwantificeerd)

Dit risicoregister (L5) vormt de basis voor het ‘risk-based’ ontwerp van het Control Plane. Het identificeert risico’s op basis van de NIST AI RMF 93 en categorieën zoals data, model, security en compliance.94

Kwantificering: Resterend Risico = (Kans × Impact) × (1 – Effectiviteit Controle)

Tabel: L5 – AI Risk Register (Selectie)

IDCategorieRisicobeschrijving****Inherent Risico (KxI)****Mitigerende Controls (Bron)Resterend RisicoEigenaar (RACI)R-01Data & PrivacyPII/PHI-lekkage in prompts of logs, wat leidt tot GDPR/AVG-boetes. 97Hoog (4×5=20)Control: PII Redaction in logs (Sectie 6).24Gate: DLP Prompt Firewall (Sectie 6).58Laag (20 * 0.2 = 4)Data StewardR-02ModelModel Drift (PSI > 0.2) leidt tot stille, foutieve beslissingen (bv. kredietverlening).99Hoog (5×4=20)Control: Continue Drift Monitoring (PSI/KL) (Sectie 9).14Gate: Geautomatiseerde ‘retrain’ of ‘rollback’ trigger (Sectie 8, L6).Gemiddeld (20 * 0.4 = 8)Product Owner AIR-03ModelModel produceert discriminerende (biased) uitkomsten (bv. afwijzing op etniciteit).96Zeer Hoog (5×5=25)Control: Data Cards (L7), Bias/Fairness metrics (Sectie 9).13Gate: CT Evaluator (Disparate Impact < 1.25).80Gemiddeld (25 * 0.4 = 10)Compliance OfficerR-04SecuritySupply chain-aanval (data- of modelvergiftiging) op een basismodel.12Hoog (4×5=20)Control: SLSA L3 (Sectie 7) 45, Model Signing (Sigstore) 46, ML-BOM.41Gate: Kyverno policy (L8) blokkeert niet-geverifieerde images.Laag (20 * 0.2 = 4)Platform LeadR-05SecurityPrompt Injection / Jailbreak 62 op extern model leidt tot reputatieschade.61Hoog (5×3=15)Control: Prompt Firewall (Sectie 6).59Gate: CT Evaluator (Jailbreak Block Rate > 95%) (Sectie 9).30Laag (15 * 0.3 = 4.5)Security OfficerR-06GovernanceOngeautoriseerde autonomie (‘Shadow AI’).100 Teams deployen U4-modellen zonder oversight.Hoog (4×4=16)Control: ZTA/PEP (Sectie 6) 56, JIT-identiteit.53Gate: OPA Policy (L8) blokkeert U4-requests zonder High-Risk metadata.Laag (16 * 0.25 = 4)Platform LeadR-07ComplianceNon-compliance EU AI Act High-Risk (Art. 14).9 Geen audit-klaar bewijs van HITL.Zeer Hoog (5×5=25)Control: Audit Evidence Catalog (L4, Sectie 5).Gate: CT-test voor HITL-override (L6). Release geblokkeerd bij ‘FAIL’.Laag (25 * 0.2 = 5)Compliance OfficerR-08SoevereiniteitExtraterritoriale datatoegang (CLOUD Act / FISA 702) 5 op PII/High-Risk data.Zeer Hoog (5×5=25)Control: Getierd Soevereiniteitsmodel (Sectie 7).Gate: Data-classificatie dwingt plaatsing in Zone 2 (HYOK) of Zone 3 (EU-only).20Gemiddeld (25 * 0.4 = 10)Compliance Officer

Sectie 13: L3 – Implementatie Roadmap & KPI’s

De implementatie van dit TOM volgt een gefaseerde benadering.101

Tabel: Roadmap met OKR’s, Waarde en Resterend Risico

**FaseOKRMijlpalen (Selectie)****Resterend Risico (R-01..R-08)**Fase 1: Fundament (0-90 Dagen) 102100% van AI-initiatieven doorloopt intake & risicoclassificatie.M1: Governance-intake (AIA/DPIA) portal live.M2: RACI (L3, Sectie 11) vastgesteld.M3: CI-pipeline (L3) met SBOM/SLSA L1 39 en PII-scan 24 operationeel.M4: API Gateway (PEP) 56 met basis OIDC-validatie.Hoog. (Fundament is gelegd, maar nog geen geautomatiseerde handhaving op schaal).Fase 2: Control Plane (6-12 Maanden)100% van ‘High-Risk’ (U3+) systemen wordt gehandhaafd door het geautomatiseerde Control Plane.M5: Evaluator Suite (L3, Sectie 9) v1.0 live (Bias, Safety, Drift).M6: CI/CD/CT (L3, Sectie 8) met geautomatiseerde Release Gates en Rollback.38M7: OPA/Kyverno (L8, Sectie 6) policies geïmplementeerd.M8: SLSA 3 45 bereikt voor ‘high-risk’ pijplijn.M9: Soevereiniteitszones (L3, Sectie 7) gedefinieerd en afgedwongen.Gemiddeld. (Technische controls zijn live; organisatie-adoptie en -cultuur volgt).**Fase 3: Schaal & Optimalisatie (12+ Maanden)**80% van de ‘Stream-Aligned’ teams ontwikkelt autonoom U1/U2-modellen op het platform.M10: Team Topologies (L3, Sectie 11) volledig geïmplementeerd (Platform, Enabling).M11: Eerste interne audit (L4) succesvol doorlopen met 100% geautomatiseerd bewijs.M12: Soevereiniteitszone 3 20 volledig operationeel voor strategische U5-workloads.Laag. (Risico’s worden proactief en aantoonbaar beheerd).

Tabel: KPI/KRI Dashboard (Selectie)

**Indicator Type****Key Performance/Risk Indicator (KPI/KRI)****Leading (Voorspellend)**Percentage use-cases met compleet AI Risk File (L4)Percentage builds met geverifieerde SBOM/SLSA (L7)Dekkingsgraad van Evaluator Suite (percentage van risico’s in L5)**Lagging (Resultaat)Aantal ‘High-Risk’ compliance-afwijkingen per auditAantal ‘Drift’ (PSI > 0.2) incidenten in productie 14Ratio HITL-interventies / Totaal beslissingen (per U-level) 9MTTR (Mean Time to Rollback) voor een falend model 38Waarde (ROI)**Gerealiseerde waarde (bv. kostenbesparing, omzet) per U-levelKosten per succesvolle use-case (inclusief compliance TCO)

Geciteerd werk

DjimIT Nieuwsbrief

AI updates, praktijkcases en tool reviews — tweewekelijks, direct in uw inbox.

Gerelateerde artikelen