Bedrijven implementeren in 2025 in hoog tempo generatieve AI-agents (bijna 80% adoptie wereldwijd), maar bijna evenveel rapporteert geen aantoonbaar effect op de omzet. McKinsey spreekt dan ook van de “gen AI paradox” : grootschalig gebruik, maar vrijwel geen materiële bijdrage aan de resultaten. Tegelijkertijd groeit het AI-budget: IDC voorspelt $307 mrd besteed in 2025, oplopend tot $632 mrd in 2028 , terwijl 88% van de bedrijven hun AI-budget volgend jaar wil verhogen. De kansen voor strategische differentiatie zijn dus enorm, maar de realiteit wijst op een fundamenteel mismatch tussen hype en waardecreatie.

Brede uitrol, beperkt gebruik

AI-agents doordringen organisaties in recordtempo, maar vaak oppervlakkig. Uit recente surveys blijkt bijvoorbeeld dat 79% van de ondervraagde leidinggevenden AI-agents implementeert en 78% AI inzet in minstens één bedrijfsfunctie . Toch zegt maar 17% dat agents volledig in alle workflows zijn geïntegreerd en gebruikt minder dan de helft van de medewerkers die agents regelmatig. Ruim 85% van de organisaties verwacht eind 2025 AI-agents te hebben, maar vooral kleine en middelgrote ondernemingen voeren ze uit (65% van de adoptie), terwijl grote bedrijven achterblijven (slechts 11% van de adoptie bij grote organisaties).

  • Gebruiksdiepte: Gemiddeld wordt AI toegepast in slechts 2–3 functionele domeinen . 32% van de bedrijven zegt dat minder dan de helft van het personeel de agents gebruikt . Slechts 1% beoordeelt de AI-implementatie als “volwassen”. Bedrijven lijken dus het “AI-adoptievinkje” aan te kruisen zonder echte transformatie.
  • Sectorverschillen: Sectoren als gezondheidszorg zien explosieve groei (CAGR ~37%; 90% van de ziekenhuizen plant adoptie tegen 2025). Financiële dienstverlening en telecom presteren relatief goed (bereiken RAI-maturity-scores rond 2.1, boven het wereldgemiddelde van 2.0 , met 40% van banken die sterk rendement melden). Productie plaatst 77% van AI-agents (87% reductie in downtime door voorspellend onderhoud). Retail investeert gestaag (+76% volgend jaar). Achterblijvers zijn consumentenproducten, energie/materialen, en bouw; geografisch leiden India (RAI 2.5) en de VS (2.4) .
  • Gebruikscases met hoge ROI: Klantenservice gaat voorop (57% van bedrijven gebruikt of plant AI-ondersteuning voor klantvragen), met 80% afhandeling door AI en 32% hogere klanttevredenheid . Verkoop/marketing (54%) en IT/cybersecurity (53%) volgen. Softwareontwikkeling laat de grootste transformaties zien – sommige voorlopers genereren inmiddels ~90% van de code met AI (was 10–15% een jaar eerder). BI en data-analyse scoren hoog in vertrouwen (38% van execs heeft veel vertrouwen), terwijl financiële transacties veel minder vertrouwen genieten (20% ).

Toch blijft de feitelijke waarde beperkt. Gartner waarschuwt dat 40% van de agentprojecten tegen 2027 wordt geannuleerd wegens onduidelijke toegevoegde waarde, oplopende kosten en tekortschietende risicocontroles. Dit bevestigt dat de belofte van AI-productiviteit (5–10% efficiëntieverbetering) zelden doorwerkt in de winst- en verliesrekening.

Waarom adoptie geen impact maakt

Horizontale vs verticale inzet

Veel organisaties kiezen voor gemakkelijk inzetbare horizontale AI-tools (copilots, chatbots) die in het hele bedrijf bruikbaar zijn. Deze leveren smalle productiviteitswinst (5–10%) verspreid over veel medewerkers, maar weinig zichtbare bedrijfswaarde. Zo gebruikt inmiddels ~70% van de Fortune 500 Microsoft 365 Copilot, maar de opbrengst per werknemer blijft beperkt. Verticale toepassingen (AI geïntegreerd in specifieke processen) kunnen 20–60% verbetering opleveren, maar het merendeel blijft steken in proeven. Uit MIT/NANDA-onderzoek blijkt dat 95% van de enterprise AI-pilots geen meetbaar financieel rendement geeft – eenvoudigweg omdat men kiest voor wat makkelijk is i.p.v. wat waardevol is.

Organisatorische weerstanden

Onvoldoende verandering in processen en cultuur veroorzaakt veel implementatiefouten. Minder dan 19% van de organisaties meet AI-oplossingen aan afgebakende KPI’s, en onder de 21% zijn de workflows fundamenteel herzien voor AI in plaats van slechts AI toe te voegen aan bestaande taken. CEO-sponsoring voor AI is zeldzaam (~30% van de bedrijven), en bijna 42% van de C-suite geeft aan dat AI-implementatie interne strijd veroorzaakt tussen IT, business en anderen. Silo’s overheersen: zonder bedrijfscultuur die AI omarmt, zien we werknemers AI juist als bedreiging – 41% van jonge medewerkers bevestigt heimelijk het AI-programma te saboteren uit angst voor baanverlies.

Data is de grootste bottleneck. In onderzoeken noemt 43% van de bedrijven dat ‘data kwaliteit en gereedheid’ de voornaamste hindernis is. 70% van de best presterende AI-organisaties worstelt desondanks met databeheer. Een RAND-studie met 65 data scientists concludeert dat ‘data-infrastructuur’ de meest voorkomende faalfactor is: de tijd en kosten om data te verzamelen, schonen en pipeline geschikt te maken zijn drastisch onderschat.

Technische beperkingen

Zelfs state-of-the-art LLM’s falen in lange workflows. Fouten stapelen zich exponentieel op – 95% betrouwbaarheid per stap leidt tot slechts 36% kans om 20 opeenvolgende stappen goed te doorlopen, terwijl productieomgevingen >99.9% nodig hebben. Onderzoek van Superface.ai toont bijvoorbeeld dat een AI-agent slecht één op de vier keer alle zes taken in een CRM-proces correct uitvoert. Kosten voor lange conversaties lopen bovendien fors op door contextwindow-limieten.

Vaardigheden en talent

Dagelijkse execution blijft afhankelijk van gespecialiseerde mensen. 46% van de bedrijfsleiders wijst op skill-gaps als grote belemmering. AI-specialisten met domeinkennis zijn schaars; salarissen stegen 2–3× het niveau tot norm. Het probleem: de arbeidsmarkt kan nooit even snel expert worden als technologische mogelijkheden.

Governance en compliance

Governance schiet tekort. Slechts 18% van de bedrijven heeft een AI-raad met bindende bevoegdheden. 56% meldt 6–18 maanden nodig te hebben om een GenAI-project van intake naar productie te krijgen door gebrek aan processen. Bijna de helft (47%) heeft al negatieve gevolgen ervaren van GenAI-projecten, vaak wegens onvoldoende risicocontroles.

Budget-misallocatie

Onderzoek wijst uit dat 70% van de GenAI-budgetten naar marketing en sales-tools gaat, terwijl de grootste ROI vaak in backoffice-automatisering ligt (besparingen van miljoenen door BPO-eliminatie en 30%-lagere bureau-uitgaven). Deze fundamentele scheefgroei aan investeringen versterkt de paradox: er wordt veel uitgegeven, maar veelal aan de verkeerde kant van de organisatie.

Wat wél werkt

Enkele organisaties (de ~5% uitblinkers) laten zien hoe AI-agents wél waarde creëren. Ze volgen daarin vergelijkbare patronen:

  • Focus op hoge-impacttaken: Lanceer AI voor repetitieve, tijdrovende taken met duidelijke succescriteria. Lumen Technologies (telecom) richtte Copilot in voor verkopers; als resultaat bespaart iedere verkoper 4 uur/week aan dossieronderzoek. Dat is $50 miljoen extra omzet per jaar. United Wholesale Mortgage (hypotheken) gebruikte Google Vertex AI voor onderwriters, waardoor de productiviteit ruim verdubbelde binnen 9 maanden.
  • Mens-in-de-loop: Behoud menselijk toezicht en een hybride aanpak. Klarna’s AI-assistent had in de proeffase 2,3 miljoen gesprekken en haalde 66% van alle klantenservice-aanvragen af met even hoge klanttevredenheid en 25% minder herhaalde vragen. Kritisch was dat complexere gesprekken alsnog naar medewerkers gingen; een volledig zelfsturend systeem bleek (zoals Klarna zelf later erkende) te ver te gaan. Octopus Energy (VK) laat AI 35% van de e-mailcorrespondentie afhandelen (met 70% vs 65% klanttevredenheid), terwijl agenten de opmaak controleren. Dit mens-AI partnerschap haalt het beste uit beiden.
  • Aanpassing op domeindata: Bouw en train agents op eigen data. Nvidia ontwikkelde ‘ChipNeMo’, een set AI-agents getraind op interne chipontwerpdata. Deze agents speuren fouten op in vroege ontwerpfasen en versnellen documentatie, resulterend in 4.000 engineer-dagen besparing per jaar. Domain-specifieke agents leveren duidelijk meer waarde dan generieke tools.
  • Sterke borging en governance: High-performing cases investeerden vanaf het begin in data governance, documentatie en beveiliging. Succesvolle projecten koppelden streng change management aan de uitrol met sponsoring door de CEO en opgezette champions-programma’s voor medewerkers. Voorbeeldbedrijf Adore Me verhoogde AI-agentontwikkeling ROI tot 333% door “prompt coördinatoren” aan te stellen zakelijke gebruikers die eindgebruikers en technici verbinden zodat niet-technische medewerkers met no-code tools AI-agents kunnen bouwen.
  • Meten op bedrijfsresultaten: De winnaars stelden vanaf dag één duidelijke KPI’s op omzet, kosten of efficiëntie. Ze beschouwen AI niet als doel maar als middel. De Writer-TEI-studie laat zien dat Adore Me in 3 jaar $12M NPV bespaarde door AI-gestuurde content (o.a. productbeschrijvingen) de terugverdientijd was 6 maanden.
  • Snelle iteraties: Begin klein, meet snel, schaal stapsgewijs. Over een gecombineerde test-and-leer-cyclus van weken veranderden succesvolle teams vaak functionaliteit op basis van directe feedback in plaats van monolithische POC-trajecten.
  • Multimodaal en multi-agent: Sommige koplopers zetten meerdere AI-modellen en agents in combinatie in (bijv. tekst-, beeld- en code-agents die data uitwisselen) om complexe taken aan te kunnen.

Geleerde lessen: Alles draait om uitvoering. Een duidelijk businessplan met afgebakende ROI-doelen vóór start, CEO-gedragen ambitie en gefaseerde uitrol op moeilijke maar lonende use cases blijken doorslaggevend. Vermijd valkuilen als “AI for AI’s sake” (technologie voor technologie), en herontwerp werkprocessen in plaats van AI los te koppelen van de werkstromen. In een keer digitale transformatie met AI doen, rendeert veel meer dan het optuigen van geïsoleerde experimenten.

Autonomie-niveaus verduidelijken realiteit

De term ‘AI-agent’ wordt vaak vaag gebruikt en er vindt veel “agent-washing” plaats. Feitelijk liggen er duidelijk verschillende niveaus:

  • Niveau 0 – Chatbot: Eenvoudige dialoogtool, reageert op vaste prompts, geen planning of geheugen.
  • Niveau 1 – AI-assistent: NLP-tool die vragen begrijpt in context (multi-turn conversaties), maar mensen geven elke stap aan.
  • Niveau 2 – Copilot: Proactieve partner binnen applicaties (bv. in Word/Excel) die suggesties doet; mens blijft baas (moet acties goedkeuren).
  • Niveau 3+ – AI-Agent: Zelfsturend systeem met eigen planning, toolgebruik en geheugen. Zo’n agent kan doelgericht meerdere stappen ondernemen met minimale mensinterventie en betrouwbaarheidsgaranties.

Modelonderzoekers benadrukken dat echte agents méér nodig hebben: autonoom plannen/herplannen, zelfcorrigerende mechanismen en meerderestrijdige workflows. In de praktijk bevinden de meeste grootschalige AI-toepassingen zich nog op Niveau 1–2 (bijv. Microsoft Copilot in M365, slimme e-mail- en CRM-assistenten). Enkelen komen experimenteel al op Niveau 3 uit (zoals conversational service-agents, meerstaps factuurverwerking, leadkwalificatie). Niveau 4–5 (volledige autonomie, zelfvoorzienende agenten die andere agents aansturen) blijft momenteel grotendeels toekomstmuziek.

Actuele capaciteiten (2025): AI-agents halen tot >90% betrouwbaarheid in eendimensionale taken (tekst samenvatten, code compleet maken in een IDE, sjabloon-gegenereerde content, eenvoudige API-integraties, gegevensroutering). Multi-step workflows lukt vaak maar zo’n 50–70% (denk meerslag klantdialogen of complexe factuurverwerking). Taaktypes die <50% betrouwbaar zijn: complexe softwareontwikkeling, creatief redeneren in nieuwe situaties, doorlopende werkstromen met tientallen stappen. IBM concludeert: 95% stap-betrouwbaarheid leidt tot 36% voltooide workflows over 20 stappen, terwijl productie >99.9% nodig heeft.

Kortom: tot Niveau 2-3 leveren AI-assistenten nu al productiviteit, maar Niveau 4-5 blijft grotendeels onbereikbaar buiten zeer beperkt domein. Zelfstandig genomen beslissingen in onzekere context of lange, voorwaardelijke taken zijn nog niet productierijp. Een studie van METR (mrt. 2025) stelt: moderne AI (Claude 3.7 Sonnet) kan taken afronden waar experts uren op zouden werken, maar nog steeds alleen veilig kleinere taken (een paar minuten groot). Historische trend: takennelengte die AI aankan verdubbelt ongeveer elke 7 maanden; extrapolatie: tegen 2030 kunnen toptalenten ongeveer maandlange projecten zelfstandig afhandelen.

EU-regelgeving een wereldwijde standaard

De EU AI-wetgeving (AI Act) van juli 2024 zet een strakke standaard neer. De wet is vanaf 1 augustus 2024 in kracht met gefaseerde invoering. Belangrijke mijlpalen zijn: vanaf 2 feb 2025 gelden de verboden op onaanvaardbare AI (zoals social scoring) en moeten betrokken medewerkers AI-geletterd zijn, vanaf 2 aug 2025 gelden generieke verplichtingen (governance, transparantie) en AI-uitvoer moet veilig zijn, vanaf 2 aug 2026 gelden strengste regels voor hoog-risico AI-toepassingen (HR, kredietbeoordeling, kritieke infrastructuur, strafrecht, bio-metrie, etc.) en tot 2 aug 2027 geldt een overgangsperiode voor AI-onderdelen in producten.

De Commissie staat onverbiddelijk op handhaving: “no stop the clock, no grace period, no pause” . Hoge risico’s (zoals personeelsselectie, kredietverlening, medische diagnostiek, wetshandhaving) moeten voldoen aan uitgebreide eisen (risicomanagement, datasetkwaliteit, doorlopende logging en toezicht, documentatie met CE-markering, enz.). Overtredingen worden zwaar gestraft: boetes tot €35 miljoen of 7% van de wereldwijde omzet voor verboden praktijken, €15M/3% voor kernverplichtingen, €7,5M/1% voor rapportageverzuim (met lagere grenzen voor KMO’s). Ook de Algemene Verordening Gegevensbescherming (AVG) schrijft voor dat volledig geautomatiseerde beslissingen met “juridisch” of “anderzins significant” effect verboden zijn, tenzij contractueel nodig, bij wet toegestaan of met expliciete toestemming – en dan nog moet er menselijk review en uitlegmogelijkheid zijn.

Een cruciale ontwikkeling is dat de EU AI-wetgeving extraterritoriaal werkt. Non-EU bedrijven moeten de regels naleven zodra hun AI-output EU-burgers raakt. Europese autoriteiten treden al streng op: in 2023/24 werden o.a. Clearview AI beboet (€20M in Italië, €30.5M in Nederland) voor onrechtmatig gebruik van gezichtsherkenningsdata, Deliveroo (IT) voor discriminerend rider-ranking, Uber NL met €290M voor onveilige dataoverdracht, en Vrijwel Alieke diensten zoals AI-chatbots moeten voldoen aan AI-act normen.

Voor wereldwijde bedrijven is dit kader leidend. Drie strategieën: (1) unified compliance (één wereldwijd beleid volgens EU-standaard), (2) geografische segmentatie (AI-versies per jurisdictie), of (3) progressieve compliance (eerst minimale EU-naleving, later opschalen). De EU-wet stimuleert al gebruik van gegevensmodellen: de EDPB benadrukt dat AI-modellen die op persoonsdata getraind zijn vaak wél als verwerking moeten worden beschouwd (hoge anonimiteitseisen) en dat ook legitieme belangen voor dataverwerking streng getoetst moeten worden. Onrechtmatig gebruikte data kan leiden tot herscholing of zelfs uitschakeling van modellen.

VS-regelgeving versnipperd en in beweging

Er is nog geen algemene federale AI-wet. Het beleid swingt tussen bestuursperiodes. President Biden’s EO 14110 (okt. 2023) voor AI-veiligheid werd op 20 jan 2025 ingetrokken door president Trump, die direct een nieuwe EO uitvaardigde met focus op “America’s global AI dominance” en deregulering . Trump beval een AI-actieplan binnen 180 dagen, met nadruk op innovatie en het weghalen van ‘obstakels’ voor AI.

In afwezigheid van federale wet blijft het bij beleid voor specifieke sectoren en veelheid aan initiatieven. De FDA publiceerde op 6 jan 2025 een ontwerpstandaard voor AI/ML-medische apparaten (levenscyclus-beheer en Predetermined Change Control Plans ). Regelgevende instanties zoals SEC/FINRA benadrukken dat bestaande wetten gewoon blijven gelden voor AI (“geen AI-exceptie”). De FTC treedt hard op onder bestaande fraudewetten: in de zomer 2024 lanceerde ze AI Comply, met onder meer een boete van $193k tegen DoNotPay voor misleidende claims over een “robotadvocaat” en acties tegen Rytr en andere ‘AI-zwendel’. FTC-voorzitter Khan herinnerde bedrijven eraan dat “no AI exemption from laws on the books” geldt .

Op staatsniveau ontstaat een veelheid aan regels. Colorado nam in 2024 de eerste uitgebreide AI-wet aan voor “consequentiebepalende beslissingen” in HR, educatie, financiën, gezondheidszorg, etc., inclusief transparantie, impact assessments en consumentenrechten. California had een AI-wet voorgesteld die werd afgewezen, maar introduceert opties tot bezwaar tegen profiling en heeft per 1 okt. 2025 regels voor AI in recruitment (verplichte bias-tests en datadocumentatie). Andere staten (o.m. Illinois, New York) volgen met eigen voorschriften voor geautomatiseerde beslissingen.

Voor internationale organisaties betekent dit compliance-landschap een zorgvuldige strategie. In de praktijk zal men vaak kiezen voor een basis compliance die gelijkloopt met de strengste standaard (nu: de EU AI Act). Belangrijk is nu al AI-systemen inventariseren naar risiconiveau, impactanalyses uitvoeren, governance-structuren instellen (denk AI-officers, data-ethics commissies) en documentatie opzetten (risicoanalyse, logboeken, DPIA’s). Tijdige actie is cruciaal: EU verplichtingen voor hoge-risicosystemen gelden vanaf aug. 2026, Colorado-eis vanaf medio 2026. De boodschap: negeer regulering niet, want de boetes (tot tientallen miljoenen euro’s) en aansprakelijkheid bij misbruik zijn substantieel.

Jurisprudentie aansprakelijkheid en biasclaims

Ook de rechtspraak ontwikkelt zich snel. Enkele hoogtepunten:

  • Mobley v. Workday (CA-ND, 2024/2025): Een 40-plussooner, Derek Mobley, diende een ADEA-zaak tegen Workday in omdat Workday’s AI-gebaseerde sollicitatietool alle aanvragers ouder dan 40 sneller dan 1 minuut (!) afwees. De rechter oordeelde dat Workday niet simpelweg een hulpje was, maar “actief deelnam aan de besluitvorming” . In juli 2024 verwierp de rechtbank het argument dat Workday enkel een “wervingstool” (employment agency) was, en staat een claim toe op basis van Workday als “agent” van werkgevers . Een indicatie van automatisme: Mobley kreeg om 1:50 uur ’s nachts een afwijzing binnen een uur na inschrijving . In mei 2025 werd een landelijke collectieve actie goedgekeurd, mogelijk de grootste ooit voor ADEA (honderdduizenden sollicitanten) .
  • EEOC v. iTutorGroup (2023): De EEOC bereikte een schikking van $365.000 tegen een Engels-tutoringbedrijf dat automatisch vrouwen ≥55 en mannen ≥60 afwees. Uit de aanklacht: het wervingssysteem was zo geprogrammeerd . Dit toont dat werkgevers niet kunnen wegduiken achter hun AI-tools – de dader blijft de werkgever, aldus EEOC.
  • Louis v. SafeRent Solutions (MA, 2024): Massachusets huuraanvragers klaagden dat SafeRent’s scoresystematiek voucherhouders (voornamelijk Afro-Amerikaans/Latijns) benadeelde. In april 2024 werd $2,28 miljoen schikking bereikt . Het gerecht erkende dit als precedent onder de Fair Housing Act. SafeRent moet nu geen huurscores meer tonen aan voucherhouders en de algoritmewijzigingen voor de rechter verantwoorden.
  • FTC-enforcement (2023–2025): De FTC laat zien dat bestaande consumenten- en handelswetten ook op AI slaan. In 2024 verbood ze Reputational Marketing-bedrijven nepbeoordelingen te verkopen (zoals via Rytr), opdeed schikkingen met eigenaren van grootschalige “verdien-$10k-per-maand met AI”-zwendelformats , en stelde een strafrechtelijke aanklacht op tegen misleidende AI-claims. Chair Lina Khan: “Using AI tools to trick, mislead or defraud people is illegal” .
  • Antitrust: In aug. 2024 klaagde het Amerikaanse ministerie van Justitie RealPage aan (huursoftware voor vastgoedbeheerders) omdat de AI-gebaseerde prijsadviessoftware wezenlijk concurreerde door gemeenschappelijk gevoelige data te gebruiken. Ontwijking via software telt dus niet: prijsafstemming is nog steeds strafbaar.

Samenvattend: de trend is duidelijk dat AI-leveranciers steeds vaker direct aansprakelijk kunnen worden gehouden (als “agent” van werkgevers/bedrijven) wanneer hun systemen voor (dis)criminatie of onrechtmatige effecten zorgen.

Marktontwikkelingen groei en consolidering

De markt voor AI-agents explodeert. Onderzoeksbureaus schatten de wereldwijde AI-agentomzet in 2025 tussen ~$5.4–7.9 mrd (startpunt ~2023) te zetten, en tot $50–236 mrd in 2030–2034 bij groeicijfers rond 38–46%. IDC voorspelt voor álle AI-gerelateerde bestedingen $632 mrd in 2028 (2025: $307 mrd). Generative AI (GenAI) groeit nog sneller (~59% CAGR) en vormt tegen 2028 ruim $200 mrd (32% van de AI-uitgaven) .

Tech-leiders: OpenAI blijft marktleider met GPT-4 en de (aug. 2025 aangekondigde) GPT-5 serie, en eerste generaties van de ‘o-serie’ voor complexe planning. Microsoft boekt hiermee hoge adoptie (Copilot $13 mrd runrate) via het Azure/O365-kanaal. Anthropic maakt stappen met Claude 4 (beste coderingsprestaties, 500k contextvensters) en een agent-ontwikkelplatform. Google biedt vertaal- en ontwikkelingshulpmiddelen (Vertex AI Agent Builder, Gemini-modellen, Agent2Agent-protocol) en combineert eigen en open modellen, gericht op interoperabiliteit. AWS zet in op platformdiversiteit (Bedrock met Anthropic, Meta Llama, Mistral, AWS Titan, en straks OpenAI; Bedrock Agents met 8-uurs runtime, geheugenmodules, code-interpreter tools). Over het algemeen geldt dat koplopers beide strategieën inzetten: basisdiensten (saaS voor iedereen) en maatwerk via systemenhuizen.

Prijsmodellen: Ooit vereisten veel AI-tools seat-licenties, maar nu domineren pay-per-use. Abonnementen van $20–60 per gebruiker per maand blijven, maar de grootste groei is bij hybride modellen (vaste fee plus “credits” voor gebruik, ~41% van bedrijven). Usage-based tarieven variëren $0.25–$75 per miljoen tokens (input/uitvoer) afhankelijk van model. Conversatie-prijzen bestaan (Salesforce Agentforce $2/gesprek; Google ~$0.001/interactie). Bedrijven schuwen vooralsnog «output-based» prijsmodellen, omdat ROI-toerekening lastig is. Bulk-deals en commitmentkortingen (met dedicated capaciteit) worden gebruikelijk.

Trends: De markt concentreert. Modelbouwers (OpenAI, Google, Anthropic, Meta) leveren de kernmodellen, SI’s (Accenture, PwC, Deloitte) integreren, en vele startups vullen nichevertikalen. Er is steeds meer samenwerking: Microsoft is partner van Workday (Agents), Google/AWS delen AI-infrastructuur, en vendor-specifieke marketplaces (AWS Bedrock Agents Marketplace, Google Agent Marketplace, Microsoft Copilot Store) ontstaan. Technisch springen protocols als Anthropic’s MCP (Model Context Protocol) en Google’s A2A Protocol in het oog als standaarden voor agentintegratie; straks moeten agents elkaar autonoom kunnen aansturen (multi-agent ecosysteem). Tegelijk worden de contextvensters fors vergroot (Anthropic 500k tokens, OpenAI mijlpaal 1 miljoen tokens), wat langere workflowcontext mogelijk maakt. Gartner voorspelt dat in 2026 zo’n 40% van enterprise-apps agentfunctionaliteit zal bevatten (tegen <5% in 2025) en dat tegen 2028 ongeveer 15% van werkbeslissingen door AI-agents genomen zal worden .

Waarschuwingen: Deloitte en Gartner benadrukken echter de ‘trough of disillusionment’. Gegeven dat 40%+ van projecten straks sneuvelt , is duidelijk dat veel agent-hype de komende jaren tot bijstellingen zal leiden. Gartner verwacht desondanks dat tegen 2029 AI-agents 80% van eenvoudige klantenservicecases autonoom zullen afhandelen, met ~30% kostenbesparing. Tegelijkertijd waarschuwen analisten dat complexe agentontwikkeling veel integratie, beveiliging en governance vereist – een complexe “gap” vergeleken met de relatief snelle GenAI-proeven. Veiligheidsrisico’s (zoals Salesloft/Drift’s lek door tokendiefstal in aug. 2025) en operationele falingen (Air Canada’s chatbot raakte passagiers in 2024 foutief; McDonald’s stopte met IBM drive-thru AI in 2024 vanwege misverstanden) laten zien dat snelheid, maar vooral zorgvuldigheid vereist is.

Strategische implicaties voor beslissers

De cruciale conclusie is dat de AI-paradox niet technisch is maar organisatorisch. Bedrijven moeten focussen op waardecreatie, niet op adoptiepercentages. Onderzoek (MIT) laat zien dat projecten die in partnership met gespecialiseerde leveranciers worden gebouwd 67% slaagden, tegenover 33% van interne initiatieven. Toch kiezen veel gevestigde organisaties in gereguleerde sectoren nog steeds voor zelfbouw – waarschijnlijk een recept voor vertraging en mislukking.

Onmiddellijke acties (binnen 3–6 maanden): Bedrijven moeten experimenteren afsluiten en hun AI-transformatiepan formaliseren. Richt AI-adviesraden op met mandaat, met duidelijke CEO-steun en AI-governance. Selecteer lighthouse-projecten op kritische, herhalende processen (bijvoorbeeld financiële administratie, inkoop, complexe backofficeworkflows) in plaats van marketing- of sales-experimenten. Herallocatie van budgetten is essentieel: verschuif investering van laag-ROI sales/marketing (nu ~70% van GenAI-budgetten) naar opschoning en automatisering van processen met potentieel voor €2–10M besparingen (bijv. factuurverwerking, klantfacturatie). Leg datadrivers, beveiliging en risicoanalysemethodieken goed vast voor uitrol in plaats van er achteraan te hollen. Stel van meet af aan concrete KPI’s op (revenue/profit/grootboekbesparing) in plaats van loze metrics als “aantal queries”.

Compliance en risico: Reguliere planning dient AI-systemen in kaart te brengen tegen de EU/CO-vereisten. Voer binnen 2025 overal een impact assessment uit: welke AI is hoog-risico (HR, juridische filters, gezondheidsapps) en moet voldoen aan EU AI Act? Stel een risicomanagement- en auditprogramma op dat aansluit op NIST/ISO-normen. Borg menselijke supervisie en transparantie (lege uitleg over beperkingen, mogelijkheid tot bezwaar) in de processen. Bereid intern een ‘Declaration of Conformity’ voor waar nodig, of selecteer Notified Bodies. Gelet op de EU-‘zero tolerance’ moet dit parallel lopen met projectuitvoering.

Implementatiepatronen: Vermijd de bekende valkuilen: “AI for AI” (technologische proeftuinen zonder business case), “overhaaste grootschalige rollout”, “data vergeten” of “slechte integratie”. De 5% succesvolle cases laten zien dat het anders kan: investeer in datakwaliteit, train personeel breed (AI literacy), en veranker AI in de bedrijfsvoering in plaats van projectleiders. Houd mensen in de lus – autonome AI is geen doel, maar alleen inzetbaar naast mensen. Zie AI als versneller, niet als vervanger, en bouw stapsgewijs, meet intensief en schaal pas op bewezen use cases.

Kernstrategie: Leg de basis van een AI-bedrijfsarchitectuur vóór eind 2025. Ontwikkel API’s en dataplatforms zodat agents veilig toegang hebben tot systemen; verbind interne kennisdatabases met AI; zet interne pilotteams op met domeindeskundigen, data-engineers en security-experts. Zorg voor direct resultaatgericht management: stel realistische verwachtingen (we zitten in een 2–5-jaar overgang) en vergroot het draagvlak door successen klein te vieren en leerervaringen te delen.

De vensters voor strategische voorsprong sluiten snel. Organisaties die AI zien als radicale proces- en businessmodellentransformatie met duidelijke ROI-meting, top-down commitment en procesherontwerp zullen zich in de komende jaren onderscheiden van de grote meerderheid die blijft steken in vluchtige adoptie zonder impact. Alleen zo kan de generatieve AI-paradox worden overwonnen: niet door harder op de technologie te leunen, maar door fundamentele integratie van AI in de bedrijfsvoering.

Bronnen (APA-stijl): McKinsey & Company (2025), “Seizing the agentic AI advantage” ; PricewaterhouseCoopers (2025), “AI Agents Survey” ; HighRadius (2024), “State of Enterprise AI Adoption” ; Gartner via Reuters (2025), “Over 40% of agentic AI projects will be scrapped…” ; Europese Commissie (2024), “Regulatory Framework for AI” ; Reuters (2025), “Trump revokes Biden AI orders” ; U.S. FTC (2024), “Crackdown on Deceptive AI Schemes” ; Wevers en Pöchhacker (2025), “Mobley v. Workday: AI service providers liable as agents” ; EEOC (2023), “iTutorGroup age bias settlement” ; Cohen Milstein (2024), “SafeRent AI housing discrimination case” ; IDC (2024), AI spending forecasts (via Channel Impact, Hospedales).


Ontdek meer van Djimit van data naar doen.

Abonneer je om de nieuwste berichten naar je e-mail te laten verzenden.


0 Comments

Geef een reactie