Inleiding

Kunstmatige Intelligentie (KI) en Machine Learning (ML) hebben sinds hun ontstaan een opmerkelijke evolutie doorgemaakt. Wat begon als theoretische concepten midden vorige eeuw, is uitgegroeid tot een breed veld dat vandaag de dag doorbraken bereikt in uiteenlopende domeinen – van beeld- en spraakherkenning tot autonome systemen. Dit artikel geeft een uitgebreid historisch overzicht van de ontwikkeling van KI en ML, vanaf de eerste concepten tot de meest recente technologische doorbraken, opgedeeld per decennium. Per periode belichten we de belangrijkste wetenschappelijke doorbraken, technieken, invloedrijke onderzoekers, fundamentele publicaties, bepalende bedrijven en instituten, en ontwikkelingen in hardware. Vervolgens richten we ons op recente trends en een toekomstanalyse, gebaseerd op actuele literatuur (vanaf 2022), hardware-roadmaps en opkomende benaderingen zoals self-supervised learning, agentische AI en neuro-symbolische AI. We bespreken ook de verwachte maatschappelijke en ethische impact van deze technologieën en geven prognoses op korte (±1 jaar), middellange (±3 jaar) en lange termijn (±5 jaar).

Deze terugblik en vooruitblik is gebaseerd op peer-reviewed onderzoek, rapporten van toonaangevende instituten, hardware-roadmaps en andere andere bronnen. Door de geschiedenis te ontrafelen en de huidige ontwikkelingen te duiden, willen we inzicht geven in hoe het veld zich heeft ontwikkeld en welke richting KI en ML in de nabije toekomst uitgaan.

Jaren 1950: De geboorte van kunstmatige intelligentie

  • 1950: Alan Turing publiceert “Computing Machinery and Intelligence”, waarin hij de Turing-test introduceert. Claude Shannon publiceert een analyse over het programmeren van schaakcomputers.
  • 1951: Christopher Strachey (dammen) en Dietrich Prinz (schaken) ontwikkelen de eerste werkende KI-programma’s op de Ferranti Mark I.
  • 1956: De Dartmouth Conference vindt plaats, vaak beschouwd als het officiële geboorteuur van het vakgebied “Artificial Intelligence”. De term “kunstmatige intelligentie” wordt geïntroduceerd.
  • Late jaren ’50: Allen Newell en Herbert Simon ontwikkelen de Logic Theorist, het eerste programma dat wiskundige stellingen automatisch bewijst.
  • 1958: John McCarthy ontwerpt de programmeertaal Lisp.
  • 1959: Arthur Samuel demonstreert een zelflerend dambordprogramma bij IBM, een vroege demonstratie van machine learning.

Belangrijke doorbraken en technieken. In de jaren vijftig ontstond het idee dat machines intelligent gedrag zouden kunnen vertonen. Alan Turing legde in 1950 de conceptuele basis met zijn invloedrijke artikel Computing Machinery and Intelligence, waarin hij het naar hem vernoemde Turing-testvoorstel introduceerde als criterium om te bepalen of een machine “kan denken”. In hetzelfde jaar publiceerde Claude Shannon een baanbrekende analyse over het programmeren van computers om schaak te spelen – een van de eerste behandelingen van zoekalgoritmen in spellen . Rond deze tijd verschenen de eerste werkende KI-programma’s: in 1951 slaagden Christopher Strachey en Dietrich Prinz erin om respectievelijk een damspel- en schaakspelprogramma te laten draaien op de Ferranti Mark I-computer . Deze vroege programma’s waren rule-based systemen die exhaustieve zoektechnieken toepasten. Kort daarop ontwikkelde Arthur Samuel bij IBM een zelflerend dambordprogramma dat niet alleen tegen menselijke amateurs kon spelen maar ook leerde van zijn fouten – een eerste demonstratie van machine learning avant la lettre.

In 1956 vond op Dartmouth College de Dartmouth-conferentie plaats, vaak beschouwd als het officiële geboorteuur van het vakgebied “Artificial Intelligence”. Informatica-pioniers John McCarthy, Marvin Minsky, Nathan Rochester en Claude Shannon organiseerden deze zomerse workshop en introduceerden toen de term kunstmatige intelligentie . De conferentie bracht topwetenschappers samen met de ambitie een “elektronisch brein” te bouwen. Het optimisme was hoog: men voorspelde dat machines met menselijke intelligentie binnen een paar decennia gerealiseerd zouden zijn . In de tweede helft van de jaren ’50 ontwikkelden Allen Newell en Herbert Simon op Carnegie Tech de Logic Theorist, het eerste programma dat wiskundige stellingen automatisch bewees en daarmee liet zien dat computers symbolisch redeneervermogen konden vertonen . John McCarthy droeg bij aan de fundering van het veld door in 1958 de programmeertaal Lisp te ontwerpen, speciaal geschikt voor het manipuleren van symbolen – cruciaal voor vroege KI-programma’s.

Invloedrijke wetenschappers. Dit decennium werd gedomineerd door visionairs als Alan Turing, wiens test en filosofische beschouwingen de vraag “Kunnen machines denken?” prominent op de agenda zetten (Turing, 1950). Andere grondleggers waren John McCarthy (bedenker van de term AI en Lisp), Marvin Minsky en Herbert Simon, die elk pionierswerk verrichten in het modelleren van redeneren en cognitie met computers. Arthur Samuel legde met zijn zelflerende dambord programma de eerste steen voor wat later machine learning zou gaan heten (Samuel, 1959). Hun gezamenlijke inspanningen maakten KI van een abstract idee tot een herkenbaar onderzoeksveld.

Fundamentele publicaties. Enkele kernpublicaties uit de jaren 1950 illustreren de start van KI. Turing’s (1950) artikel Computing Machinery and Intelligence schetste gedachte-experimenten en weerlegde veelvoorkomende tegenargumenten omtrent denkende machines . Shannon (1950) publiceerde Programming a Computer for Playing Chess, een vroege verkenning van zoekmethoden voor het schaakspel. Een andere mijlpaal was de Dartmouth-proposal (McCarthy, Minsky, Rochester & Shannon, 1955), een onderzoeksplan dat de agenda voor KI-onderzoek uitgestippelde. Tot slot was Samuel’s paper Some Studies in Machine Learning Using the Game of Checkers (1959) een van de eerste werken over zelflerende algoritmen – hierin beschrijft hij hoe zijn damprogramma beter werd door ervaringen.

Bedrijven en instituten. Academische instellingen speelden een hoofdrol: Harvard (Mark I-project) en later MIT, Carnegie Institute of Technology (het latere Carnegie Mellon University) en Stanford waren broedplaatsen van KI-onderzoek. IBM ondersteunde vroege KI – hun computers boden rekenkracht voor Samuels experimenten. Bell Labs droeg bij via Shannons werk. Dartmouth College schreef geschiedenis door de AI-conferentie te hosten. Formele beroepsverenigingen stonden nog in de kinderschoenen: de Association for Computing Machinery (ACM) had wel een KI-belangstelling groep, maar pas in 1980 werd de American Association for Artificial Intelligence (AAAI) opgericht.

Hardware-ontwikkelingen. De computationele middelen waren in de jaren 1950 zeer beperkt. Vroege KI-programma’s draaiden op mainframe-computers met slechts kilobytes aan geheugen en kloksnelheden van enkele megahertz. Niettemin maakten deze vacuüm buis- en transistor gebaseerde machines (zoals de Ferranti Mark I of IBM 704) het mogelijk om concepten als heuristische zoekalgoritmen en eenvoudige leeralgoritmen uit te testen. De hardware verbeterde richting 1960 met de opkomst van transistor-computers en de eerste geïntegreerde schakelingen, maar gespecialiseerde KI-hardware bestond nog niet – onderzoekers moesten het doen met algemene computers die doorgaans seconden of minuten nodig hadden om resultaten te berekenen die vandaag in milliseconden worden verkregen.

Samenvatting jaren 1950. De jaren vijftig markeerden de geboorte van KI als vakgebied. Fundamentele vragen werden gesteld (Turing-test) en eerste programma’s toonden aan dat computers spelproblemen en logica konden aanpakken. Er ontstond groot optimisme dankzij pioniers als Turing, McCarthy en Simon. De theoretische basis – van symbolisch redeneren tot machine learning – werd gelegd, hoewel praktische resultaten nog beperkt waren door de rudimentaire hardware.

Jaren 1960: Expansie van symbolische AI en eerste tegenslagen

  • Jaren ’60: Verdere ontwikkeling van het General Problem Solver-concept (Newell & Simon).
  • 1961: General Motors zet een Unimate industriële robot in op de assemblagelijn.
  • 1963: Marvin Minsky ontwerpt een confocale scanner voor beeldherkenning.
  • 1965: J. Alan Robinson introduceert de resolutie-bewijsmethode voor geautomatiseerde stellingenbewijzers. Aleksandr Ivachnenko ontwikkelt een meerlaagse neurale-net trainer (eerste deep learning algoritme), grotendeels onbekend in het Westen. Lotfi Zadeh introduceert fuzzy logic. Edward Feigenbaum en collega’s ontwikkelen DENDRAL, een expertsysteem voor chemische analyse.
  • 1966: Joseph Weizenbaum bouwt ELIZA, ’s werelds eerste chatbot. Ross Quillian ontwerpt semantische netwerken.
  • 1968: Marvin Minsky publiceert “Semantic Information Processing”.
  • 1969: Marvin Minsky en Seymour Papert publiceren “Perceptrons”, dat de beperkingen van het éénlaagse perceptron analyseert. Het Stanford Research Institute demonstreert Shakey, de eerste robot die perceptie, planning en actie combineert. Eerste International Joint Conference on AI (IJCAI) wordt gehouden.

Belangrijke doorbraken en technieken. In de jaren zestig breidde KI zich uit naar nieuwe domeinen, voornamelijk via symbolische benaderingen. Het General Problem Solver-concept (Newell & Simon) werd verder ontwikkeld, gericht op algemene probleemoplossing via middel-doel analyse. Symbolisch redeneren bloeide: in 1965 introduceerde J. Alan Robinson de resolutie-bewijsmethode, een algoritme dat efficiënt met logische formules kon redeneren en de basis legde voor geautomatiseerde stellingenbewijzers. Joseph Weizenbaum bouwde in 1966 ELIZA, ’s werelds eerste chatbot die een psychotherapeut nabootste door sleutelwoorden in gebruikersinput te herkennen . Hoewel ELIZA intern eenvoudig was, demonstreerde het de mogelijkheid van mens-computer interactie in natuurlijke taal – een voorloper van hedendaagse dialogen systemen.

Een ander thema in de jaren ’60 was het simuleren van menselijk denkvermogen via formele logica en semantiek. Ross Quillian ontwierp bijvoorbeeld semantische netwerken (1966) als model voor conceptuele kennis presentatie . Marvin Minsky en Seymour Papert richtten zich intussen op neurale netwerken: in hun boek Perceptrons (1969) analyseerden ze de beperkingen van het éénlaagse perceptron en toonden ze wiskundig aan dat zo’n netwerk bepaalde eenvoudige patronen niet kon leren herkennen . Dit werk – bedoeld als stimulans voor onderzoek naar meerlaagse netwerken – werd vaak geïnterpreteerd als bewijs dat “connectionistische” methoden weinig toekomst hadden, wat bijdroeg aan een terugval in neurale-netwerken onderzoek (een vroege AI-winter). Ondertussen boekten symbolische AI-systemen wel succes: Edward Feigenbaum en collega’s ontwikkelden DENDRAL (1965–1969), een expertsysteem dat chemische moleculen identificeerde uit massaspectra . DENDRAL bewees dat kennisgedreven programma’s complexe wetenschappelijke taken aankunnen, wat de weg vrijmaakte voor de latere expert systems-golf. Ook in planning en robotica waren er vorderingen: in 1969 demonstreerde het Stanford Research Institute de mobiele robot Shakey, die als eerste machine perceptie, planning en actie combineerde door in een kamer zelfstandig rond te rijden en opdrachten uit te voeren . Dit systeem (met een camera-oog, wieltjes en een rule-based planner) was een voorloper van moderne autonome robots.

Invloedrijke wetenschappers. De groei van KI werd gedragen door voortrekkers als Marvin Minsky (MIT) en John McCarthy (Stanford). Hun instituten trokken talenten aan zoals Seymour Papert, die zowel aan cognitieve ontwikkeling (Logo-taal voor kinderen) als aan perceptron-theorie bijdroeg. Op het gebied van kennisrepresentatie en taalbegrip waren onderzoekers als Allen Newell, Herbert Simon en de jonge Edward Feigenbaum toonaangevend. Weizenbaum’s ELIZA trok breed aandacht – zijn kritische houding ten aanzien van overdreven AI-optimisme maakte hem tot een vroege AI-ethicus. In de Sovjet-Unie verrichtte Aleksandr Ivachnenko baanbrekend werk door in 1965 een meerlaagse neurale-net trainer te ontwikkelen (nu herkend als eerste deep learning-algoritme), al bleef dit destijds buiten het Westen vrijwel onbekend. Lotfi Zadeh (UC Berkeley) introduceerde in 1965 de fuzzy logic, waarmee hij traditionele booleaanse logica uitbreiden naar gradaties van waarheid – een concept dat later brede toepassing vond in besturing en regeltechniek. Samengevat legde in de jaren ’60 een nieuwe generatie KI-experts de fundamenten voor uiteenlopende subvelden: van natuurlijke taalverwerking en kennispresentatie tot neurale netwerken en probabilistische logica.

Fundamentele papers. Enkele invloedrijke werken uit dit decennium: Semantic Information Processing (Minsky, 1968) bundelde essays over hoe computers betekenis kunnen hanteren. Zadeh’s artikel “Fuzzy Sets” (1965) introduceerde formeel fuzzy-verzamelingen en fuzzy-logica (Zadeh, 1965). Weizenbaum (1966) publiceerde ELIZA – A Computer Program for the Study of Natural Language Communication Between Man and Machine, waarin hij de werkwijze en beperkingen van zijn chatbot besprak. Het boek Perceptrons (Minsky & Papert, 1969) gaf een wiskundige analyse van eenvoudige neurale netwerken; hoewel omstreden, geldt het als fundamenteel in de ML-geschiedenis. Daarnaast markeert Robinson’s (1965) artikel over de resolutie-methode een mijlpaal in geautomatiseerd redeneren. Deze publicaties tonen hoe divers KI-aanpakken al konden zijn: van logisch redeneren tot taalverwerking, en van fuzzy sets tot neurale netwerken.

Bedrijven en instituten. In de jaren ’60 werden formele onderzoekslaboratoria opgebouwd. MIT opende in 1959 zijn Artificial Intelligence Laboratory (Minsky en later Papert), waar visionaire projecten plaatsvonden (bv. Terry Winograd’s SHRDLU-systeem in de blokkenwereld). Stanford had het AI Lab (SAIL) onder McCarthy, en bij het Stanford Research Institute (SRI) onder Donald Michie werd aan robots en vertaling gewerkt (hier ontstonden Shakey en een jaarlijks Machine Intelligence-workshop) . De Amerikaanse overheid investeerde via DARPA in KI, terwijl in de USSR academies zich op neurale modellen storten. Bedrijven toonden voorzichtig interesse: General Motors zette in 1961 een Unimate-industriële robot in op de assemblagelijn (ontwikkeld door Unimation) . Alhoewel dit geen “denkende” robot was, illustreerde het de belofte van automatisering, mede gevoed door KI-ideeën in besturingstechniek. In 1969 werd de eerste International Joint Conference on AI (IJCAI) gehouden, wat liet zien dat KI zich had gevormd tot een internationale onderzoeksgemeenschap.

Hardware-ontwikkelingen. De rekencapaciteit nam gestaag toe dankzij de transistor en de eerste geïntegreerde schakelingen (eind jaren ’60). KI-onderzoekers gebruikten grote mainframes en vroege minicomputers (bv. PDP-6 bij MIT). Projecten als Shakey waren alleen mogelijk met zulke zware computers: de robot stuurde beelden naar een mainframe dat de plannen berekende (soms duurde plannen maken uren). Er werd ook nagedacht over KI-specifieke hardware: Marvin Minsky ontwierp in 1963 een confocale scanner voor beeldherkenning proeven. Over het algemeen profiteerde KI van Moore’s Law: het aantal transistoren per chip verdubbelde ruwweg elke twee jaar, waardoor programma’s steeds complexer konden worden. Niettemin waren geheugen en opslag nog schaars; veel systemen (ELIZA, SHRDLU) draaiden in enkele tientallen kilobytes RAM. Deze beperkte hardware dwong KI-systemen zich te beperken tot eenvoudige “micro-werelden” (bv. blokkenpuzzels of getypte dialogen), want echte wereld complexiteit was te veeleisend.

Samenvatting jaren 1960. In de jaren zestig groeide KI uit zijn embryonale fase naar een brede waaier aan symbolische methoden. Succesvol waren o.a. het eerste interactieve taalprogramma (ELIZA) en het eerste expertsysteem (DENDRAL), wat aantoonde dat computers in beperkte domeinen intelligent gedrag konden vertonen. Theoretici als Robinson en Zadeh legden nieuwe formele fundamenten. Het optimisme bleef groot, maar tegen het einde van het decennium ontstonden de eerste barsten: kritische rapporten (zoals Lighthill’s beoordeling van UK-KI in 1973) en mislukkingen (automatische vertaling) temperden de overtuiging dat algemene machine-intelligentie “om de hoek” lag. Het veld professionaliseerde echter door conferenties en tijdschriften, en de basis voor subdisciplines als NLP, kennisrepresentatie en (rudimentaire) machine learning was gelegd.

Jaren 1970: Kennis gedreven AI en de eerste AI-winter

  • Jaren ’70: Verschuiving naar kennisgebaseerde systemen en de opkomst van expertsystemen.
  • 1971: Earl Sacerdoti bouwt ABSTRIPS, een van de eerste hiërarchische planners.
  • 1972: Alain Colmerauer en Philippe Roussel creëren de logische programmeertaal Prolog.
  • 1972–1975: Ontwikkeling van MYCIN, een expertsysteem voor medische diagnose.
  • 1973: Het Lighthill-rapport verschijnt, kritisch over de vooruitgang van KI en leidt tot een daling in Britse overheidsfinanciering (begin van de eerste AI-winter).
  • 1974: Marvin Minsky introduceert het concept van frames.
  • 1975: Austin Tate ontwikkelt NONLIN, een partial-order planning algoritme. Earl Sacerdoti publiceert zijn dissertatie over hiërarchisch plannen.
  • 1976: Bozinovski et al. beschrijven transfer learning.
  • 1978: Meta-DENDRAL wordt ontwikkeld aan Stanford, een vroege vorm van machine learning binnen symbolische AI. Drew McDermott en Jon Doyle ontwikkelen de basis voor niet-monotone logica (eind jaren ’70). Herbert Simon ontvangt de Nobelprijs.
  • 1979: Kunihiko Fukushima start onderzoek naar neurale netwerken (de “neocognitron”).

Belangrijke wetenschappelijke doorbraken en technieken. In de jaren 1970 verschoof de focus van algemene probleemoplossers naar kennisgebaseerde systemen. Onderzoekers beseften dat het inbedden van domeinkennis cruciaal was voor intelligent gedrag. Dit inzicht leidde tot de opkomst van expert systems: programma’s die menselijke experts nabootsten binnen een smal vakgebied door gebruik van uitgebreide regelbanken. Een vroeg voorbeeld was MYCIN (ontwikkeld 1972–1975), een systeem dat middels ~450 if-then regels bacteriële infecties diagnosticeerde en antibiotica voorstelde (Shortliffe, 1974). MYCIN introduceerde ook onzekerheidsredenering via zogeheten “certainty factors”, omdat medische kennis vaak probabilistisch van aard is​en.wikipedia.orgen.wikipedia.org. Succesvolle demonstraties als DENDRAL en MYCIN toonden de potentie van deze aanpak – computers konden nu specialistische taken uitvoeren die eerder voorbehouden waren aan wetenschappers of artsen.

Een andere doorbraak was het formaliseren van plannen en planning in AI. In 1971 bouwde Stanford Researcher Earl Sacerdoti een van de eerste hiërarchische planners (ABSTRIPS), waarmee complexe handelingen opgedeeld werden in subdoelen​en.wikipedia.orgen.wikipedia.org. Dit werk evolueerde tot efficiëntere algoritmen zoals partial-order planning (NONLIN van Austin Tate, 1975)​en.wikipedia.org. Tegelijkertijd werd gewerkt aan geavanceerde kennisrepresentaties: in 1973 introduceerde Marvin Minsky het concept van frames – datastructuren om kennis over stereotypische situaties op te slaan (bijv. het frame “restaurant” met slots zoals tafel, menu, rekening)​en.wikipedia.orgen.wikipedia.org. Frames maakten het mogelijk voor computers om context te behouden en verwachting te modelleren, iets wat latere systemen in bijvoorbeeld verhaalbegrip gebruikten.

Halverwege de jaren ’70 kwamen ook de eerste ideeën over leren uit ervaring in symbolische systemen op. Een voorbeeld is het programma Meta-DENDRAL (Stanford), dat zelf regels leerde voor chemische analyses door generalisatie van DENDRAL’s kennis​en.wikipedia.orgen.wikipedia.org. Dit kan gezien worden als vroege machine learning binnen symbolische AI (tegenhanger van de statistische ML stroming). Daarnaast onderzocht men transfer learning: Bozinovski et al. (1976) beschreven een methode waarbij een model kennis uit eerder geleerde taken hergebruikt voor nieuwe taken​en.wikipedia.orgen.wikipedia.org – dit idee vond echter pas decennia later brede toepassing.

Eind jaren ’70 waren de eerste successen in autonome robots zichtbaar. Hans Moravec bouwde in 1979 de Stanford Cart om tot een robotkar die zelfstandig obstakels kon omzeilen met behulp van stereocamera’s en een path-planning algoritme​en.wikipedia.orgen.wikipedia.org. Hoewel het voertuig zeer traag bewoog (het kruiste een kamer in enkele uren), bewees dit experiment het principe van visuele navigatie zonder menselijke tussenkomst. In 1979 behaalde ook een doorbraak in spelsimulatie: de backgammon-automaat BKG 9.8 versloeg de regerend wereldkampioen backgammon, deels dankzij toevalsdobbelstenen, maar toonde dat een computer op expert-niveau kon meedraaien in dit probabilistische spel​en.wikipedia.orgen.wikipedia.org.

Invloedrijke wetenschappers en hun bijdragen. De jaren ’70 zagen nieuwe kopstukken opstaan. Edward Feigenbaum (Stanford) werd bekend als “vader van de expert systems” door zijn werk aan DENDRAL en het faciliteren van MYCIN; hij geloofde sterk dat het invoeren van menselijke kennis de sleutel was tot succesvolle AI. In hetzelfde kader leverden Bruce Buchanan en Randall Davis belangrijke bijdragen aan methoden om kennis te representeren en meta-redenering over regels mogelijk te maken​en.wikipedia.orgen.wikipedia.org. Op het gebied van formele logica ontwikkelden Drew McDermott en John Doyle aan MIT de basis van non-monotone logica (eind ’70s) voor redeneren met onvolledige informatie​en.wikipedia.orgen.wikipedia.org, wat later belangrijk werd voor default redeneren. Ook de cognitieve wetenschap beïnvloedde AI: Allen Newell en Herbert Simon bleven bijdragen, en hun Nobelprijs (Simon, 1978) voor werk over beslissingsprocessen (bounded rationality) legitimeerde AI-achtige modellen in de economie​en.wikipedia.org. In Frankrijk werkten Alain Colmerauer en Philippe Roussel aan de logische programmeertaal Prolog (geïntroduceerd in 1972), wat de basis werd voor veel symbolische AI-software in Europa​en.wikipedia.orgen.wikipedia.org. Ten slotte maakte ook buiten de VS talent naam: bijvoorbeeld in Japan begon professor Kunihiko Fukushima onderzoek naar neurale netwerken (de neocognitron, 1979), vooruitlopend op latere visienetwerken.

Fundamentele papers. Een aantal publicaties uit deze tijd geldt nu als klassiek. Het verslag van de Lighthill-commissie (Lighthill, 1973) was weliswaar een kritisch overheidsrapport en geen wetenschappelijk artikel, maar het had grote invloed: het concludeerde dat KI onvoldoende had waargemaakt en leidde ertoe dat de Britse overheid KI-onderzoek vrijwel stillegde​en.wikipedia.orgen.wikipedia.org. Dit markeerde het einde van de eerste golf van ongeremde KI-financiering – een periode die later de eerste AI winter zou heten. Aan de positieve kant verscheen A Framework for Representing Knowledge (Minsky, 1974) dat het frame-concept formaliseerde en een blijvende impact op kennisrepresentatie heeft gehad. Ook de publicatie van het PROLOG-ontwerp (Colmerauer, 1973) in de IFIP Congress Proceedings was fundamenteel voor logic programming. Sacerdoti’s artikel over ABSTRIPS (1974) introduceerde hiërarchische taakdecompositie in planning. Daarnaast werden vroege leeralgoritmen gedocumenteerd: Mitchell’s (1978) paper over Version Spaces definieerde formeel hoe een algoritme concepten kan generaliseren uit voorbeelden (een mijlpaal in concept learning)​en.wikipedia.orgen.wikipedia.org. Deze literatuur legde de grondslag voor latere standaarden in AI-onderzoek: van programmeertalen en kennismodellering tot leren en redeneren.

Bedrijven en instellingen. Tegen deze tijd begonnen bedrijven echt te investeren in KI-toepassingen. In 1970 richtte Edward Feigenbaum samen met anderen het bedrijf Teknowledge op om expert system-software te commercialiseren. Digital Equipment Corporation (DEC) ontwikkelde intern het XCON-expertsysteem om de configuratie van VAX-computers te automatiseren – één van de eerste commercieel succesvolle AI-toepassingen eind jaren ’70. Internationale initiatieven werden gelanceerd: in Japan startte in 1977 het nationaal Fifth Generation Computer Systems (FGCS) programma, dat KI en logic programming tot speerpunt maakte (formeel aangekondigd in 1982)​en.wikipedia.org. Overheidslabs zoals SRI International, MIT’s AI Lab, Stanford’s Knowledge Systems Lab en Carnegie Mellon’s nieuwe Robotics Institute (opgericht 1979) werden centra van AI-innovatie. In Europa had Edinburgh’s AI-groep een prominente rol, net als enkele groepen in Frankrijk (bij INRIA voor Prolog, en in Duitsland voor spraakherkenning). We zien dat AI-expertise dus breder verspreid raakte buiten de oorspronkelijke kern.

Hardware ontwikkelingen. Het landschap van computers veranderde met de komst van de microprocessor (Intel 4004 in 1971). Hierdoor ontstonden in de late jaren ’70 krachtige minicomputers en vroege personal computers waarop AI-software kon draaien buiten de grote rekencentra. Toch draaiden de meest geavanceerde systemen nog op krachtige machines als de DEC PDP-10 of Xerox’s Lisp Machines (ontwikkeld eind jaren ’70). Inderdaad, Lisp-machines – gespecialiseerde computers geoptimaliseerd voor Lisp-programma’s – verschenen commercieel rond 1980, maar hun prototypes stammen uit de late jaren ’70​en.wikipedia.org. Ze boden KI-onderzoekers dedicated hardware voor symboolmanipulatie, wat de ontwikkeling van omvangrijke kennisbanken en logische inferenties versnelde. Ook in de robotica werden sensoren goedkoper en computers kleiner, waardoor experimenten als Moravecs mobiele robot en Carnegie Mellons autonome voertuigproject (NAVLAB) mogelijk werden. Desondanks was geheugen nog schaars en rekenkracht beperkt: MYCIN draaide batchgewijs op een mainframe, en robots als Shakey hadden externe verwerkingsunits. Het decennium sloot af met steeds betere chip-integratie (Very Large Scale Integration, VLSI) wat de weg zou bereiden voor krachtige 32-bit processoren in de jaren ’80.

Samenvatting jaren 1970. De jaren zeventig kenmerkten zich door een pragmatische wending in KI: “wijsheid” (expertspecifieke kennis) werd belangrijker geacht dan puur algemene probleemplanning. Dit leidde tot succesvolle expertsystemen in niches zoals geneeskunde en scheikunde, en tot nieuwe concepten als frames voor contextuele kennis. Toch groeide ook de scepsis: de Lighthill-rapporten en het uitblijven van doorbraken in bijvoorbeeld taalvertaling leidden tot een eerste afkoeling in financiering rond 1974, met name in het VK en de VS​en.wikipedia.org. Deze AI winter was relatief mild en tijdelijk – deels gecompenseerd door de opkomst van commerciële toepassingen en Japans en Europees enthousiasme – maar het zorgde wel voor reflectie: AI moest focusseren op haalbare doelen. Uitdagingen zoals gezond verstand en algemeen redeneren bleven vooralsnog onbeheersbaar. Niettemin, tegen 1980 was KI verankerd als discipline met eigen conferenties, tijdschriften (bijv. het AI Journal opgericht in 1970) en een eerste generatie toepassingen in de echte wereld.

Jaren 1980: Expert systems, neurale heropleving en tweede AI-winter

  • Jaren ’80: Grote commerciële en technische successen van expertsystemen.
  • 1980: Edward Feigenbaum richt Teknowledge op om expertsystemen te commercialiseren.
  • Vroege jaren ’80: Digital Equipment Corporation (DEC) ontwikkelt het XCON-expertsysteem, een commercieel succes.
  • 1981: De IBM PC wordt geïntroduceerd.
  • 1982: Japan kondigt het Fifth Generation Computer Systems (FGCS)-project aan.
  • 1984: Bruce Buchanan en Randall Davis werken aan kennisrepresentatie en meta-redenering.
  • 1985: Danny Hillis ontwikkelt de Connection Machine, een parallel systeem voor AI-algoritmen.
  • 1986: Ernst Dickmanns test een experimentele zelfrijdende auto tot 90 km/u op lege snelwegen. Het eerste Machine Learning Journal wordt opgericht.
  • 1987–1988: Sommige Lisp-machinebedrijven (Symbolics, LMI) gaan failliet.
  • Eind jaren ’80: Verzadiging van de expertsysteem-markt en teleurstelling over uitblijvende doorbraken leiden tot de tweede AI-winter (±1988–1993).
  • 1989: Intel brengt de ETANN-chip uit, die analoge neurale netwerken implementeert.

Belangrijke doorbraken en technieken. Begin jaren 1980 kwam expert systemen echt tot bloei. Bedrijven implementeerden op grote schaal regelsystemen voor beslissingsondersteuning in diagnose, finance en logistiek. Software zoals XCON bij DEC bespaarde miljoenen door automatisch computerconfiguraties te plannen, en duizenden specialistische expert systems werden gebouwd in industrie en overheidsorganisaties​en.wikipedia.orgen.wikipedia.org. Dit werd mede mogelijk gemaakt door de beschikbaarheid van “expert system shells” – softwarepakketten (vaak draaiend op Lisp-machines) waarmee men relatief snel kennisregels kon invoeren zonder alles vanaf nul te programmeren​en.wikipedia.org. Het succes was zo groot dat de markt voor expert systems exponentieel groeide tot een miljardenindustrie tegen 1985.

Parallel daaraan voltrok zich een wedergeboorte van neurale netwerken – de zogeheten Connectionist revival. In 1982 introduceerde John Hopfield een hercurrent neuraal netwerk model (Hopfield-netwerk) dat wiskundig elegant was en geheugenfunctie kon vertonen, wat onmiddellijk brede aandacht kreeg (Hopfield, 1982). Kort daarop (1986) werd het backpropagation-algoritme herontdekt en populair gemaakt door David Rumelhart, Geoffrey Hinton en Ronald Williams, die aantoonden hoe meerlaagse neurale netwerken efficiënt getraind konden worden om patronen te herkennen (Rumelhart et al., 1986)​en.wikipedia.orgen.wikipedia.org. Deze publicatie doorbrak de jarenlange stagnatie in machine learning: ineens konden neurale netwerken met verborgen lagen leren, iets wat door Minsky & Papert (1969) nog als onhaalbaar was bestempeld. Het resultaat was een ware golf van onderzoek naar Deep Learning avant la lettre – hoewel de netwerken destijds doorgaans beperkt bleven tot 2 à 3 lagen door rekenkundige beperkingen. Ook verwante technieken werden ontwikkeld: Boltzmann Machines (Hinton & Sejnowski, 1985) introduceerden stochastische neurale netten; Self-Organizing Maps (Teuvo Kohonen, 1982) brachten ongericht competitief leren; en Recurrent Neural Networks voor sequentiële data werden onderzocht (bijv. Elman-netwerk, 1988). Neurale netten begonnen beter te presteren op taken als handschriftherkenning: in 1989 toonde Yann LeCun’s LeNet-5 convolutionele netwerk accurate classificatie van geschreven cijfers voor postcodes, een voorloper van moderne CNN’s.

De integratie van probabilistische redeneermodellen was een andere mijlpaal in de late jaren ’80. Judea Pearl publiceerde in 1988 Probabilistic Reasoning in Intelligent Systems, waarin hij Bayesiaanse netwerken en probabilistische inferentie formeel uiteenzette (Pearl, 1988). Hierdoor kregen KI-systemen een krachtig wiskundig raamwerk om met onzekerheid om te gaan, complementair aan de deterministische logica van voorheen. Deze ideeën leidden tot toepassingen in diagnose (bijv. medische beslissingsondersteuning) en machine learning (de eerste geslachtsdetectie met Bayesiaanse nets, etc.). Aan het eind van het decennium groeide tevens het besef van de nood aan planning in onzekere omgevingen, wat de basis legde voor latere Partially Observable Markov Decision Processes (POMDPs) en dergelijke, hoewel die formele ontwikkeling pas in de jaren ’90 goed op gang kwam.

Invloedrijke wetenschappers. Op het gebied van expert systems waren Edward Feigenbaum en Bruce Buchanan nog steeds prominente figuren, samen met nieuwe spelers in commerciële settings zoals Peter Friedland en Mark Stefik (MOLGEN project voor moleculaire genetica)​en.wikipedia.org. De neurale heropleving werd geleid door onderzoekers als Geoffrey Hinton (Toronto), David Rumelhart (Stanford), Yann LeCun (Bell Labs) en Kunihiko Fukushima (NEC, Japan). Hun successen toonden de waarde aan van multi-disciplinaire kennis (cognitiewetenschap en statistiek) in AI. In 1987 publiceerde Marvin Minsky The Society of Mind, een theoretisch – en deels filosofisch – boek dat een holistisch beeld schetste van de menselijke geest als samenwerkende agenten​en.wikipedia.orgen.wikipedia.org. Dit inspireerde onderzoek naar multi-agent systemen en onderstreepte Minksy’s rol als ideeënleverancier. Rodney Brooks (MIT) zorgde voor opschudding in de robotica door zijn paper Elephants Don’t Play Chess (1987) en introductie van de subsumption architectureen.wikipedia.orgen.wikipedia.org, waarin hij pleitte voor reactieve robots zonder complexe interne modellen (bekend als behavior-based AI of “Nouvelle AI”). Brooks’ ideeën beïnvloedden de ontwikkeling van autonome robots en droegen bij aan bijvoorbeeld de eerste insect-achtige robots die zonder planning eenvoudige navigatietaken uitvoerden. Tenslotte verdienden figuren als Lotfi Zadeh opnieuw erkenning: in 1984 werd het IEEE Transactions on Fuzzy Systems gelanceerd, grotendeels dankzij Zadeh’s initiatief, wat fuzzy logic tot mainstream technologie voor controle en besluitvorming maakte (denk aan wasmachines met fuzzy controllers in de jaren ’90).

Fundamentele papers. Een selectie van invloedrijke publicaties uit dit decennium omvat: Learning Representations by Back-Propagating Errors (Rumelhart, Hinton & Williams, 1986), dat het meerlagen-neurale netwerktrainingsalgoritme beschreef en demonstratief toepaste – dit artikel in Nature wordt gezien als startschot van moderne deep learning​en.wikipedia.orgen.wikipedia.org. Pearl’s Bayesian networks boek (1988) was geen klassieke peer-reviewed paper maar een uiterst geciteerd standaardwerk dat het probabilistisch paradigma vestigde. In 1983 stelden John Laird, Allen Newell en Paul Rosenbloom het cognitieve architectuur SOAR voor, gepubliceerd in een reeks papers; dit legde de basis voor latere cognitieve modellen en integratie van leren met probleemoplossing. Hopfield’s artikel Neural networks and physical systems with emergent collective computational abilities (1982, in PNAS) toonde de analogie tussen neurale netwerken en thermodynamische systemen en gaf impetus aan cross-disciplinaire benaderingen. Verder verscheen PLAN (James Allen, 1983) over temporele logica, waarin de interval calculus werd voorgesteld om tijdredeneren te formaliseren​en.wikipedia.orgen.wikipedia.org – nu een standaard in planning/scheduling. Tot slot was er natuurlijk de literatuur rond expert systems, zoals The MYCIN Experiments (Buchanan & Shortliffe, 1984), die de casestudies van regelgebaseerde diagnose bundelde en zo een breed publiek bereikte. Deze publicaties lieten elk op hun manier zien hoe KI zowel nieuwe mathematische fundamenten kreeg als praktische waarde kon leveren.

Bedrijven en instellingen. Commercieel was de jaren ’80 een hoogtijd voor AI. Diverse start-ups richtten zich op Lisp-machines (bijv. Symbolics, Lisp Machines Inc.) en kenden aanvankelijk succes doordat universiteiten en bedrijven deze kochten voor AI-applicaties. Giganten als IBM en DEC hadden eigen AI-centra; IBM investeerde in spraakherkenning en expert systems, DEC zoals genoemd in XCON. In 1982 investeerde de Japanse overheid omgerekend $850 miljoen in het FGCS-project, in de hoop binnen tien jaar geavanceerde Prolog-machines en intelligente computersystemen te bouwen​en.wikipedia.org. Deze internationale “wedloop” spoorde de VS aan tot het Microelectronics and Computer Technology Corporation (MCC) consortium, waarin bedrijven samenwerkten aan KI en geavanceerde computing. Het aantal AI-conferenties en -tijdschriften nam ook toe, en het nieuwe tijdschrift Machine Learning (opgericht 1986) gaf de opkomende subdiscipline van leeralgoritmen een eigen platform. In academische kring bleven Carnegie Mellon (met namen als Raj Reddy voor spraak en Hans Berliner voor game-AI) en Stanford leidend, terwijl ook nieuwkomers zoals de University of Toronto (Hinton) en Yale (Roger Schank voor case-based reasoning) invloedrijk werden. Echter, tegen het einde van het decennium begonnen investeerders geduld te verliezen: enkele Lisp-machine bedrijven gingen failliet (Symbolics en LMI raakten in financiële problemen rond 1988), en de overweldigende verwachtingen rond het Japanse project bleken ongegrond. Dit droeg bij aan een tweede, hevigere AI-winter eind jaren ’80, waarin investeringen wereldwijd inkrompen en AI tijdelijk een minder modieus label werd​en.wikipedia.orgen.wikipedia.org.

Hardware-ontwikkelingen. De computerindustrie maakte in de jaren ’80 een stormachtige ontwikkeling door. De opkomst van de personal computer (IBM PC in 1981) en de toename in rekensnelheid door 32-bit CPU’s (bijv. Motorola 68000, Intel 80386) zorgden ervoor dat veel AI-software op desktop-workstations kon draaien in plaats van op dure mainframes. Voor de zwaarste toepassingen bleven gespecialiseerde systemen in trek: de Connection Machine (Danny Hillis, 1985) was een innovatief parallel systeem met 65.536 processors, ontworpen voor AI-algoritmen die massale parallelliteit vereisten​en.wikipedia.org. Dit soort machines was zijn tijd vooruit en vond gebruik in geavanceerd onderzoek (bijvoorbeeld in natuurlijke taal of simulatietaken). In 1986 bouwde Ernst Dickmanns in Duitsland de eerste experimentele zelfrijdende auto voorzien van een camera en on-board computer die met 60 km/u op lege wegen kon rijden – mogelijk gemaakt door nieuwe, snellere microprocessors en custom vision-hardware​en.wikipedia.orgen.wikipedia.org. Ook VLSI-technologie bood nieuwe mogelijkheden: Carver Mead’s en Lynn Conway’s pionierswerk in “silicon compilers” maakte het eenvoudiger om eigen chips te ontwerpen. Hierdoor verschenen begin jaren ’90 de eerste neurale netwerkchips (bijv. Intel ETANN 1989), die hardwarematig neuronen nabootsten​en.wikipedia.org. Al deze hardware-innovaties waren gedreven door de behoefte om AI-toepassingen sneller en schaalbaarder te maken. Toch was de reguliere computerkracht nog niet voldoende voor echt grootschalige neurale netten of full AI voor alledaagse omgevingen – daarvoor zou men de komende decennia moeten wachten op de miljoenvoudige toename in transistorcounts.

Samenvatting jaren 1980. De jaren ’80 waren dualistisch voor KI: enerzijds kende het veld enorme commerciële en technologische successen, vooral dankzij expert systems die in verschillende industrieën werden toegepast. Anderzijds ontstonden weer te hoge verwachtingen – zowel over symbolische AI (die niet zonder intensieve menselijke kennisinvoer kon) als over nieuwe hardware-projecten (die achterbleven bij beloften). Positief was de wetenschappelijke vooruitgang: de herontdekking van neurale netwerken en de introductie van probabilistische methoden gaven KI nieuwe invalshoeken en meer wiskundige diepgang. Het decennium eindigde echter in een terugval: een verzadiging in de expert system-markt en teleurstelling over trage vooruitgang (bijvoorbeeld het Japanse FGCS boekte geen wonderen) brachten een tweede AI-winter ca. 1988–1993​en.wikipedia.org. In deze periode vermeden veel bedrijven de term “AI” en werd onderzoek soms onder andere namen voortgezet (zoals machine learning of informatica). Niettemin legde de kennis uit de jaren ’80 – van neurale algoritmes tot kennisbanken – de basis voor de renaissance die in de jaren ’90 zou volgen.

Jaren 1990: De opkomst van machine learning en intelligente agents

  • Jaren ’90: Verschuiving naar data-gedreven methoden en statistisch machine learning.
  • 1992: Gerald Tesauro ontwikkelt TD-Gammon, dat reinforcement learning gebruikt om backgammon op wereldkampioen-niveau te spelen.
  • 1995: Vladimir Vapnik en Corinna Cortes introduceren het Support Vector Machine (SVM)-algoritme. Leslie Kaelbling et al. publiceren een survey over POMDP-problemen. Stuart Russell en Peter Norvig publiceren een gezaghebbend overzichtswerk over KI.
  • 1997: IBM’s Deep Blue schaakcomputer verslaat wereldkampioen Garry Kasparov. De eerste RoboCup wordt gehouden. Logistello verslaat de Othello-kampioen. Sepp Hochreiter en Jürgen Schmidhuber introduceren het Long Short-Term Memory (LSTM)-netwerk. Dragon Dictate komt uit.
  • 1998: De MNIST-dataset (handgeschreven cijfers) wordt gelanceerd. De speelgoed-Furby wordt geïntroduceerd.
  • 1999: David Lowe ontwikkelt het SIFT-algoritme voor objectherkenning. Sony’s AIBO-robothond wordt geïntroduceerd. Sebastian Thrun et al. introduceren Monte Carlo Localization voor mobiele robots. De eerste GPU (NVIDIA GeForce 256) wordt geïntroduceerd.

Belangrijke doorbraken en technieken. In de jaren 1990 verschoof de nadruk van regelgebaseerde systemen naar meer data-gedreven methoden. De beschikbaarheid van grote datasets en krachtigere computers stimuleerde de ontwikkeling van machine learning algoritmen gebaseerd op statistiek. Een van de meest invloedrijke wendingen was de opkomst van het Support Vector Machine (SVM)-algoritme (Vapnik & Cortes, 1995). SVM’s brachten krachtige wiskunde (statistiek, functionaalanalyse) in KI: ze bleken uitstekend te presteren op patroonherkennings taken door flexibele, hoog-dimensionale scheidingsgrenzen te leren (Cortes & Vapnik, 1995). Ook ensemble learning brak door: algoritmen als AdaBoost (Freund & Schapire, 1997) verhoogden de nauwkeurigheid door meerdere modellen te combineren. Bayesiaanse netwerken evolueerden van theoretisch concept naar praktische tool – mede dankzij verbeterde inferentie-algoritmen (junction tree, variational Bayes in begin jaren ’90). Voor sequentie data markeerden de jaren ’90 een grote sprong met recurrente neurale netwerken: Hochreiter & Schmidhuber (1997) introduceerden het Long Short-Term Memory (LSTM)-netwerk, dat het probleem van verdwijnende gradiënten oploste en lange-termijn-afhankelijkheden kon leren (Hochreiter & Schmidhuber, 1997). LSTM’s zouden pas decennia later grootschalig gebruikt worden, maar vormden een enorme conceptuele vooruitgang voor spraak- en taalverwerking.

Naast ML zag de jaren ’90 voortgang in traditionele KI-domeinen: computer vision werd meer data-gedreven met algoritmen als SIFT (Scale-Invariant Feature Transform, 1999) voor objectherkenning. Spraakherkenning verbeterde door Hidden Markov Models (HMMs) en werd commercieel toepasbaar (Dragon Dictate kwam uit in 1997). Robotica omarmde probabilistische methoden: Monte Carlo Localization (Fox et al., 1999) paste Bayesiaanse filtering toe voor mobiele robots – een fundament voor latere autonome voertuigen.

Een belangrijke conceptuele ontwikkeling was het idee van de “intelligente agent”. In 1995 publiceerden Stuart Russell en Peter Norvig het handboek Artificial Intelligence: A Modern Approach, dat een uniform kader presenteerde voor KI als studie van rationele agenten die in een omgeving opereren (Russell & Norvig, 1995). Deze agent-georiënteerde benadering verenigde voorheen losse subvelden (perceptie, redeneren, actie) in één perspectief. Hierdoor gingen onderzoekers geïntegreerde systemen bouwen, bijvoorbeeld softbots (software-agenten) die op internet informatie verzamelden of autonoom handelden in online omgevingen.

Ten slotte brachten de jaren ’90 doorbraken in spellen die de media bereikten. Het bekendste is natuurlijk IBM’s Deep Blue schaakcomputer, die in 1997 wereldkampioen Garry Kasparov versloeg – de eerste keer dat een regerend schaakkampioen verloor van een machine (Campbell et al., 2002). Deep Blue combineerde brute-force zoek (200 miljoen posities/s) met heuristieken van schaakgrootmeesters – een triomf van rekenkracht en slimme software. Eveneens in 1997 werd de eerste RoboCup gehouden , waar autonome robotjes een voetbalwedstrijd speelden – een speelse stimulans voor vooruitgang in robotica en multi-agent samenwerking. Rond dezelfde tijd bereikten KI-programma’s topniveau in andere spellen: in 1992 ontwikkelde Gerald Tesauro TD-Gammon, dat via reinforcement learning leerde op wereldkampioen-niveau backgammon te spelen; en in 1997 versloeg Logistello de Othello-kampioen met 6–0 . Deze successen lieten de kracht van lerende en zoekende algoritmen zien, en legitimeerden KI als discipline die echte intellectuele uitdagingen kon overwinnen.

Invloedrijke wetenschappers en bijdragen. De opkomst van machine learning bracht een nieuwe lichting onderzoekers naar voren. Vladimir Vapnik (Bell Labs), mede-uitvinder van SVM’s, en Yann LeCun (Bell Labs, later NYU), die convolutionele netwerken verder ontwikkelde, waren sleutelfiguren in patroonherkenning. In academische kringen leverden Tom Mitchell (CMU) en Andrew Ng (eind jaren ’90 bij Berkeley/Stanford) bijdragen aan zowel theorie als praktijk van ML – Mitchell’s Machine Learning (1997) werd een standaard leerboek. Op probabilistisch vlak waren Daphne Koller en Michael Jordan invloedrijk; zij brachten Bayesiaanse methoden naar realistische toepassingen. Reinforcement learning bloeide dankzij Richard Sutton en Andrew Barto, wier handboek Reinforcement Learning (1998) een generatie onderzoekers opleidde. Gerald Tesauro (IBM) kreeg lof voor TD-Gammon, een toonbeeld van RL’s kracht in complexe domeinen . Daarnaast speelde de “oude garde” mee: bijvoorbeeld Oren Etzioni en Pattie Maes waren pioniers in software-agenten en multi-agent systemen, terwijl Rodney Brooks (MIT) zijn behavior-based robotica voortzette en in 1990 iRobot oprichtte (later bekend van de Roomba-robotstofzuiger). Ook neurowetenschappers droegen bij: Geoffrey Hinton integreerde cognitiewetenschap met neurale netten, en Judea Pearl breidde zijn werk uit naar causale inferentie (essentieel voor latere AI-alignment discussies). Kortom, de jaren ’90 kenden een mengeling van ervaren AI-experts die zich aanpasten aan nieuwe data-gedreven methoden, en een nieuwe generatie die KI sterker wiskundig formaliseerde.

Fundamentele papers. Markante publicaties uit de jaren ’90 zijn o.a.: Support-Vector Networks (Cortes & Vapnik, 1995), waarin SVM formeel werd gedefinieerd en indrukwekkende resultaten op handschriftherkenning toonde. Sepp Hochreiter & Jürgen Schmidhuber’s Long Short-Term Memory (1997) introduceerde LSTM en demonstreerde hoe een netwerk context over lange termijnen kon onthouden . In 1998 publiceerden Leslie Kaelbling et al. een invloedrijke survey over POMDP-problemen (beslissen en plannen bij gedeeltelijke observatie), wat planning onder onzekerheid toegankelijk maakte voor robotica . Ook het eerder genoemde Russell & Norvig (1995) had grote invloed als gezaghebbend overzichtswerk. Op toepassings vlak publiceerden Campbell et al. (2002) een gedetailleerd artikel over de architectuur van Deep Blue (AI Journal), inclusief het speciale hardware design en zoekalgoritmen achter Kasparovs nederlaag. Verder was er Blum & Furst’s paper (1995) dat Graphplan introduceerde – een zeer snelle planner voor lastig plan problemen – en het wijd toegepaste EM-algoritme (Dempster et al., 1977, maar in de ’90s de standaard voor onvolledige data-analyse, bv. in spraak). Deze greep uit de literatuur laat zien dat in de jaren ’90 veel nadruk lag op wiskundig goed gefundeerde algoritmen met efficiency aandacht, wat KI verder legitimeerde als serieuze tak van de informatica.

Bedrijven en instellingen. Na de AI-winter pakten bedrijven de KI-agenda weer op, zij het onder nieuwe benamingen. Tech-giganten als IBM, Microsoft en SAP begonnen “data mining” en “business intelligence” als kernactiviteiten te zien – in feite machine learning en kennis ontdekking. Silicon Valley zag KI-gerelateerde startups ontkiemen (veel in spraak- en dataverwerking). In 1997 startte IBM zijn bekende Watson-project (vernoemd naar de oprichter) voor question-answering en in 1999 toonde hun ViaVoice spraakherkenning de vruchten van decennia onderzoek. Ook DARPA hernieuwde investeringen, zoals in het Autonomous Land Vehicle project en in informatie-integratie voor inlichtingendiensten (begin jaren ’90). Academisch verschoof het zwaartepunt deels: MIT fuseerde in 1995 het AI Lab met het Lab for Computer Science, wat samenwerking tussen AI-onderzoekers en core computer scientists stimuleerde. Carnegie Mellon werd toonaangevend in robotica en planning (Takeo Kanade, Hans Moravec). In Europa investeerde de EU via ESPRIT-projecten in neurale netwerken en spraakvertaling, wat leidde tot systemen als Verbmobil (Duits spraak vertalings systeem). Dit decennium zag ook nieuwe conferenties: Neural Information Processing Systems (NIPS)groeide explosief (aantallen papers en bezoekers), en Autonomous Agents kreeg een eigen conferentie vanaf 1997. Het brede publiek kreeg KI-producten te zien: de speelgoed-Furby (1998) – een mechanisch huisdier met rudimentaire leercapaciteit – en Sony’s AIBO-robothond (1999) lieten zien dat KI ook de huiskamer begon binnen te dringen.

Hardware-ontwikkelingen. De jaren ’90 profiteerden sterk van de voortzetting van Moore’s Law. CPU-kloksnelheden stegen van ~33 MHz (1990) naar ~1 GHz (2000), waardoor complexe algoritmen sneller draaiden. Belangrijker nog: de GPU (Graphics Processing Unit) deed zijn intrede (NVIDIA GeForce 256 in 1999), oorspronkelijk voor 3D-graphics maar later cruciaal voor AI-versnelling. Eind jaren ’90 experimenteerden sommigen al met GPU’s voor matrixberekeningen, een voorbode van de deep-learning-boost in 2010s. Geheugen en opslag werden goedkoper en datasets groter – zo werd in 1998 de MNIST-dataset (handgeschreven cijfers) gelanceerd als standaard benchmark, en webcrawlers verzamelden het internet in zoekmachines . Voor robotica waren beter sensoren en ingebedde microcontrollers cruciaal: begin jaren ’90 kwamen betaalbare laserscanners en de eerste GPS-systemen, wat autonome navigatie vergemakkelijkte (bv. CMU’s NavLab auto). Voor supercomputers gold: Deep Blue zelf was een gespecialiseerde IBM RS/6000 cluster met aangepaste schaakchips. Breed gezien reikte hardware van krachtige SGI- en Sun-werkstations voor vision-onderzoekers tot legers van goedkope PC’s die webdata verzamelden voor informatie retrieval. Kortom, de hardware bood nu de schaal en snelheid om datagedreven AI echt van de grond te krijgen, al was gespecialiseerde KI-hardware (los van wat neurale chips) nog in opkomst.

Samenvatting jaren 1990. De jaren negentig brachten een paradigmaverschuiving richting machine learning en statistische AI. In plaats van handgecodeerde kennis en logica kwam de nadruk te liggen op algoritmen die kunnen lerenuit data en ervaringen – van getrainde SVM’s en neurale netten tot reinforcement learning in spellen. Deze evolutie werd gedreven door theoretische innovaties (statistische leertechnieken, Bayesiaanse modellen) en de sterk verbeterde rekencapaciteit en data-infrastructuur. KI werd ook meer onderdeel van de reguliere informatica (met het agent-paradigma als verbindend concept) en drong via op consumenten gerichte producten door tot het dagelijks leven. Mijlpalen als Deep Blue’s schaakoverwinning symboliseerden voor het grote publiek dat KI “volwassen” begon te worden. Aan het eind van de 20e eeuw was de term “AI” weer salonfähig en geassocieerd met veelbelovende technieken als data mining en intelligente agenten. Dit legde de voedingsbodem voor de explosieve groei in de 21e eeuw, toen big data en internet KI nog verder zouden versnellen.

Jaren 2000: Big data, diepere neurale netten en het internet-tijdperk

  • Jaren 2000: Exponentiële toename van data en rekenkracht versnelt de vooruitgang.
  • 2001: Google lanceert een statistische vertaaldienst (later Google Translate). Tim Berners-Lee et al. beschrijven “The Semantic Web”.
  • 2003: Yoshua Bengio et al. introduceren neurale word embeddings.
  • 2004: Microsoft brengt Speech Server uit.
  • 2005: Het door Stanford gebouwde voertuig Stanley wint de DARPA Grand Challenge.
  • 2006: Geoffrey Hinton et al. presenteren een techniek voor het trainen van diepe neurale netwerken via ongecontroleerde pre-training. Apache Hadoop wordt gelanceerd. De Netflix Prize dataset (filmreviews) wordt beschikbaar.
  • 2007: De DARPA Urban Challenge vindt plaats. OpenCV (open source computer vision bibliotheek) wordt uitgebracht. NVIDIA introduceert CUDA, waardoor GPU’s programmeerbaar worden voor algemeen gebruik.
  • 2008: Het DARPA SYNAPSE-programma voor neuromorfe chips start. Een algoritme (Univ. of Alberta) bereikt bijna wereldtop in heads-up Limit Hold’em poker.
  • 2009: Fei-Fei Li en collega’s introduceren de ImageNet-database. Hinton’s groep gebruikt GPU’s voor netwerktraining. Trevor Hastie et al. publiceren “The Elements of Statistical Learning”.

Belangrijke doorbraken en technieken. In de jaren 2000 namen de hoeveelheid beschikbare digitale data en de rekenkracht exponentieel toe, wat direct de vooruitgang in KI en ML versnelde. Een cruciale ontwikkeling was de revival van deep learning op grotere schaal. In 2006 presenteerden Geoffrey Hinton et al. een techniek voor het trainen van diepe neurale netwerken via ongecontroleerde pre-training (Hinton, Osindero & Teh, 2006). Door eerst laag-voor-laag patronen te leren met onbegeleide methoden (Restricted Boltzmann Machines of auto-encoders) en daarna fine-tunen met backpropagation, wisten zij een netwerk met meerdere verborgen lagen succesvol te trainen . Dit resultaat – gepubliceerd in Science (Hinton & Salakhutdinov, 2006) – markeert het begin van de moderne deep learning-revolutie. Kort daarna volgden successen als Deep Belief Networks en stacked auto-encoders, die aantoonden dat neurale netten met >3 lagen praktisch inzetbaar werden.

Parallel daaraan ontstonden enorme datasets om zulke modellen te trainen. In 2009 introduceerden Fei-Fei Li en collega’s de ImageNet-database met 14 miljoen hand-gelabelde afbeeldingen, gestructureerd in 22.000 categorieën (Deng et al., 2009). ImageNet vulde een cruciale behoefte: het werd de benchmark voor beeldherkenning en dwong algoritmen op grote schaal te presteren. Ook in spraak en NLP kwamen reusachtige data beschikbaar (bijv. Google News corpus, de Netflix Prize dataset van filmreviews in 2006).

Machine-learning algoritmen profiteerden hier direct van. Zo zorgde de Netflix Prize-competitie (2006–2009) voor innovaties in collaborative filtering: het winnende team gebruikte een ensemble van honderden modellen (matrix-factorisatie, decision trees, etc.) om >10% betere aanbevelingen te doen, waarmee de kracht van ensemble-leren en big data in de industrie werd aangetoond. In spraakherkenning gingen toonaangevende groepen (Microsoft, Google) rond 2009 neurale netten inzetten, wat rond 2011-2012 tot dramatisch lagere foutpercentages leidde.

De jaren 2000 brachten ook nieuws in games en planning. In 2005 won het door Stanford gebouwde voertuig Stanley de DARPA Grand Challenge – een woestijnrace voor zelfrijdende auto’s – door ~200 km autonoom te rijden (Thrun et al., 2006). Dit succes leidde in 2007 tot de DARPA Urban Challenge, waar robotauto’s in stadsverkeer navigeerden . Zulke prestaties waren mogelijk dankzij LIDAR, radar en camera’s met real-time sensorfusie en probabilistische planners – technologieën die in de 2000s volwassen werden.

In het schaken hadden computers inmiddels alle menselijke kampioenen ingehaald; KI zocht nieuwe uitdagingen: poker werd een focus van academisch onderzoek. Rond 2008 bereikte een algoritme (Univ. of Alberta) bijna wereldtop in heads-up Limit Hold’em door RL en game-theoretische analyse, wat in de jaren 2010 zou leiden tot volledige doorbraken.

Verder ontstond het concept van “foundation models” impliciet: grote, generieke modellen die voor getraind zijn op enorme datasets en vervolgens voor uiteenlopende taken worden verfijnd. In 2003 introduceerden Bengio et al.bijvoorbeeld neurale word embeddings (vector representaties van woorden), wat de basis vormde voor latere grote taalmodellen. Dergelijke ideeën – grote ongerichte pretraining – zouden een decennium later door transformers worden geëxplodeerd, maar de zaadjes werden in de jaren 2000 geplant.

Invloedrijke wetenschappers en hun bijdragen. Veel toonaangevende figuren uit de jaren ’80 en ’90 bleven bepalend in de 2000s. Geoffrey Hinton, Yoshua Bengio en Yann LeCun – later de “Godfathers of Deep Learning” genoemd – werkten nauw samen rond 2006 om diepe neurale netten weer tot leven te wekken. Fei-Fei Li (Stanford) combineerde visie en leren door ImageNet op te zetten, waarmee ze een hele community rond grootschalige evaluatie verenigde. Andrew Ng (Stanford/Google) liet in 2011 zien wat unsupervised learning kon: zijn “Google Brain” project gebruikte 16.000 CPU-cores om uit YouTube-video’s zelfstandig het concept “kat” te leren herkennen zonder labels – een speelse maar indrukwekkende demo van self-supervised learning. In robotica waren Sebastian Thrun, Chris Urmson en Red Whittaker invloedrijk in autonome voertuigen (met DARPA-winst en latere Google/Waymo-projecten); hun werk combineerde theoretische vooruitgang (SLAM, particle filters) met praktische successen. In het bedrijfsleven investeerden leiders als Bill Gates (Microsoft Research groeide sterk in de 2000s) en Larry Page/Sergey Brin (Google) aanzienlijk in KI. Interdisciplinair talent werd ook belangrijk: Jure Leskovec en Jon Kleinberg brachten KI naar sociale-netwerkanalyse, en biologen gebruikten KI voor genomics (voorloper van latere “deep genomics”).

Fundamentele papers. Invloedrijke publicaties uit de 2000s zijn onder meer: Hinton’s Science-artikel Reducing the Dimensionality of Data with Neural Networks (2006), dat liet zien hoe een diep auto-encoder net data beter kan comprimeren dan hoofdcomponentenanalyse (PCA). In 2009 verscheen ImageNet: A Large-Scale Hierarchical Image Database (Deng et al., 2009) , waarin de opzet en eerste resultaten van ImageNet werden beschreven – een katalysator voor computervisie. Het DARPA Grand Challenge team publiceerde Stanley: The robot that won the DARPA Grand Challenge (Thrun et al., 2006), inclusief het gebruik van machine learning voor stuurcontrole. In 2001 beschreven Leo Breiman et al. de theorie achter Random Forests, een ensemble van beslissingsbomen dat een van de meest gebruikte ML-algoritmen voor tabulaire data zou worden. Ook noemenswaardig: The Semantic Web (Berners-Lee et al., Sci. Am. 2001) spoorde aan tot semantische annotatie van webinformatie, wat later leidde tot kennisgrafen bij Google . Hoewel volledig semantisch web uitbleef, gaf het concept impetus aan linked data en ontologie gebaseerde AI. In 2009 publiceerden Trevor Hastie et al. The Elements of Statistical Learning, een gezaghebbend (leer) boek dat de kloof tussen statistiek en ML overbrugde en een generatie data scientists opleidde. Deze mix van theoretische en toegepaste werken kenmerkt de jaren 2000: een periode waarin KI zowel academische diepgang als indrukwekkende praktische resultaten liet zien.

Bedrijven en instituten. In de 21e eeuw werden grote technologiebedrijven de drijvende kracht achter veel KI-innovaties. Google (opgericht 1998) was vanaf het begin een KI-bedrijf: het PageRank-algoritme en webcrawlers gebruikten grafentheorie en zoektechnieken . In 2001 lanceerde Google een statistische vertaaldienst (later neurale Google Translate). IBM bereikte een mijlpaal met Watson, een QA-systeem dat in 2011 (ontwikkeld gedurende de late 2000s) twee menselijke Jeopardy quizkampioenen versloeg . Watson combineerde geavanceerde NLP met immense kennisbanken en statistische antwoord ranking – een voorbeeld van hoe verschillende KI-technieken integraal een complex probleem kunnen aanpakken. Microsoft Research investeerde zwaar in spraak (Speech Server 2004) en visie (COCO dataset mede sponsoring) en organiseerde competities (bijv. de Visual Object Challenge). Facebook (opgericht 2004, later Meta) startte rond 2007 met KI-initiatieven voor content filtering en news feed ranking. In academische wereld bleven Montreal (Bengio) en Toronto (Hinton) deep learning hubs, CMU en Stanford leidden robotics en NLP. In 2006 was er een conferentie ter ere van “AI@50” (Dartmouth, 50 jaar KI) waar onderzoekers reflecteerden op uitblijven van mensachtige AI maar ook nieuwe hoop uitspraken . Dit inspireerde bijv. hernieuwde interesse in cognitieve benaderingen (neurale-symboolhybriden). Bedrijven begonnen ook KI-open source te maken: in 2007 werd OpenCV(open source computer vision bibliotheek) uitgebracht, wat visie technieken democratiseerde.

Hardware-innovaties. Het “big data” tijdperk vroeg om grootschalige infrastructuur. Cluster computing en cloudplatforms kwamen op: Apache Hadoop (2006) maakte gedistribueerde data-analyse mainstream, zodat AI-algoritmen op tientallen/honderden machines parallel konden draaien. GPU’s werden rond 2007 programmeerbaar voor algemeen gebruik via NVIDIA’s CUDA, wat een revolutie was: matrixberekeningen verliepen nu tot wel een orde sneller dan op CPU’s, ideaal voor neurale netten. Tegen 2009 gebruikte Hinton’s groep al GPU’s voor netwerktraining, een voorbode van de deep learning-hausse in 2012. Speciale AI-hardware werd ook verkend: in 2008 richtte het bedrijf Cerebras zich op wafer-scale chips (een volledige siliciumwafer als één reusachtige AI-chip) – dit bleef concept tot hun feitelijke product in 2019, maar de visie ontstond hier. Neuromorfe chips (hersen geïnspireerde hardware) zagen DARPA’s SYNAPSE-programma (vanaf 2008) en IBMs TrueNorth-prototype in 2011 (met 1 miljoen “neuronen” op een chip). Quantum computing werd tegen eind 2000s vaker genoemd in combinatie met AI, al waren quantum-ML-algoritmen nog theoretisch. Ten slotte steeg het energieverbruik door AI-trainingen: het trainen van deep nets werd compute- én energie-intensief – in 2009 kostte een top CNN model dagen op een cluster, wat aandacht vestigde op energie-efficiëntie en latere groene AI-initiatieven.

Samenvatting jaren 2000. In het eerste decennium van de 21e eeuw werden KI en ML volwassen in een data-rijke omgeving. Doorbraken in diepe neurale netten en de creatie van massale datasets maakten dat AI-systemen sprongen vooruit maakten in perceptie (zien, horen) en cognitie (leren, redeneren). De scheidslijn tussen academie en industrie vervaagde: bedrijven als Google en IBM brachten KI op ongekende schaal in praktijk, van het doorzoeken van het web tot het verslaan van quizkampioenen. Technologieën als GPU-versnelling en cloudcomputing bleken essentieel om steeds grotere modellen en datasets te kunnen hanteren. Ondanks de vooruitgang was algemene AI nog niet in zicht, maar de bouwstenen – diepe leermodellen, enorme data, krachtige hardware – lagen klaar. De weg was geplaveid voor het volgende decennium, waarin deze componenten zouden samenvloeien tot de revolutionaire doorbraken van de jaren 2010.

Jaren 2010: Deep learning-revolutie en opkomst van autonome AI

  • 2011: Andrew Ng’s “Google Brain” project leert zelfstandig het concept “kat” herkennen uit YouTube-video’s. IBM Watson verslaat twee menselijke Jeopardy quizkampioenen.
  • 2012: Alex Krizhevsky et al. (onder Hinton) winnen overtuigend de ImageNet-beeldherkenning competitie met AlexNet.
  • 2013: Deep learning bereikt doorbraken in spraakherkenning. Facebook lanceert zijn FAIR-lab (o.l.v. Yann LeCun).
  • 2014: Ian Goodfellow et al. introduceren Generative Adversarial Networks (GANs). Amazon introduceert spraakassistent Alexa. Google neemt DeepMind over.
  • 2015: OpenAI wordt opgericht. Yoshua Bengio, Yann LeCun en Geoffrey Hinton publiceren een overzichtsartikel over Deep Learning in Nature.
  • 2016: AlphaGo van DeepMind verslaat menselijke wereldkampioen Go. Google zet eigen Tensor Processing Units (TPU’s) in in hun datacenters. Partnership on AI (een industrie/ngo-coalitie) wordt opgericht.
  • 2017: Ashish Vaswani et al. introduceren de Transformer-architectuur (“Attention is All You Need”). Landen als Canada en Frankrijk lanceren nationale AI-strategieën. NVIDIA lanceert de Volta GPU-architectuur.
  • 2018: Google introduceert het BERT-model. Geoffrey Hinton, Yoshua Bengio en Yann LeCun ontvangen gezamenlijk de Turing Award. NVIDIA lanceert de Turing GPU-architectuur. Intel lanceert de Loihi-chip. DeepMind kondigt vroege resultaten aan van AlphaFold. ELLIS-netwerk wordt opgericht in Europa.
  • 2019: OpenAI’s GPT-2 toont verbluffend coherente tekstgeneratie. Stuart Russell publiceert “Human Compatible”. Amazon neemt de zelfrijdende startup Zoox over. Cerebras onthult de eerste wafer-scale engine.

Belangrijke wetenschappelijke doorbraken en technieken. De jaren 2010 kenmerken zich door een explosie aan KI-prestaties, grotendeels aangedreven door deep learning. Een keerpunt was 2012, toen een convolutioneel neuraal netwerk van Alex Krizhevsky et al. (Universiteit Toronto, onder Hinton) overtuigend de ImageNet-beeldherkenning competitie won met een foutenpercentage dat half zo groot was als dat van de nummer twee (Krizhevsky et al., 2012) . Dit model – bekend als AlexNet – had 8 lagen en 60 miljoen parameters, getraind op twee GPU’s. Het succes veroorzaakte een paradigmawissel: binnen enkele jaren stapten vrijwel alle visiesystemen over van handgemaakte kenmerken naar convolutionele netwerken . Deep learning bleek niet beperkt tot visie: ook in spraakherkenning behaalden neurale netten rond 2013 doorbraken, met ~30% foutreductie waardoor automatische transcriptie bijna mensniveau bereikte (Hinton et al., 2012, in IEEE Signal Processing Magazine). In 2014 volgde een nieuwe mijlpaal: de introductie van Generative Adversarial Networks (GANs) door Ian Goodfellow et al.. GANs bestaan uit een generator en discriminator die via een min max-spel samen trainen en realistisch-ogende beelden genereren (Goodfellow et al., 2014). Dit opende de weg naar fotorealistische plaatjes uit tekst (jaren later), deepfakes en creatief gebruik van KI voor media.

Een andere innovatie was het attention-mechanisme in neurale netwerken. In 2014 werd attention voor het eerst toegepast in sequence-to-sequence modellen (Bahdanau et al., 2015) om machinevertaling te verbeteren. De grote doorbraak volgde in 2017 met de Transformer-architectuur (Vaswani et al., 2017) . Transformers laten recurrency achterwege en gebruiken volledige self-attention om relaties tussen alle woorden in een zin parallel te modelleren. Deze architectuur bleek uiterst krachtig en paralleliseerbaar en vormde de basis van de nieuwe golf Large Language Models (LLM). In 2018 introduceerde Google het model BERT, dat via bidirectionele transformer-pretraining kennis opdeed uit gigantische tekstcorpora en op 11 taalbegrip staken de state-of-the-art model ruim verbeterde (Devlin et al., 2019). In 2019 toonde OpenAI’s GPT-2 (met 1,5 miljard parameters) verbluffend coherente tekstgeneratie – zo indrukwekkend dat OpenAI aanvankelijk weigerde het volledige model vrij te geven vanwege zorgen om misbruik.

Ook de combinatie van deep learning met reinforcement learning (RL) boekte historische resultaten. Google DeepMind ontwikkelde AlphaGo, dat in 2016 de 18-voudig wereldkampioen Go (Lee Sedol) versloeg, een prestatie die tot dan toe als onhaalbaar gold (Silver et al., 2016). AlphaGo combineerde diepe CNN’s voor positie-evaluatie met Monte Carlo tree search, getraind deels op menselijke partijen en deels via zelfspel (reinforcement learning). Een jaar later volgde AlphaGo Zero, dat zonder menselijke voorbeelddata, puur via zelfspel, binnen maanden sterker werd dan de originele AlphaGo. Hiermee werd aangetoond dat een AI super menselijk niveau kan bereiken in een complex domein door leer algoritmes te koppelen aan immense rekenkracht. DeepMind paste deze aanpak toe in andere spellen: AlphaZero(2017) leerde schaken en shogi op topniveau door alleen de spelregels te kennen en de rest zelf uit te vinden, en in 2019 bereikte AlphaStar grootmeester niveau in het real-time strategie spel StarCraft II . Eveneens indrukwekkend was OpenAI’s Five, een team van vijf agenten dat in 2019 professionele Dota 2-spelers versloeg via multi-agent reinforcement learning.

Naast spellen bewees KI zijn waarde in de wetenschap: eind 2020 onthulde DeepMind AlphaFold2, een diep leerarchitectuur die het decennia-oude probleem van eiwitvouwing met verbluffende nauwkeurigheid oploste (Jumper et al., 2021, in Nature). AlphaFold2 voorspelde 3D-vouwings structuren van eiwitten op basis van hun aminozuursequentie, en overtrof daarmee verre alle klassieke methoden. Deze doorbraak illustreerde dat deep learning niet alleen games en media betreft, maar ook fundamentele wetenschappelijke uitdagingen aankan.

Invloedrijke wetenschappers. De lijst van invloedrijke namen in de jaren 2010 is lang. Geoffrey Hinton, Yoshua Bengio en Yann LeCun ontvingen in 2018 gezamenlijk de Turing Award voor hun pionierswerk in deep learning. Nieuwe kopstukken waren Demis Hassabis (oprichter DeepMind, brein achter AlphaGo en AlphaFold), Fei-Fei Li (Stanford, leidend in computer vision en AI4Good-initiatieven), en Andrew Ng (die via MOOCs en research bij Stanford/Baidu deep learning wereldwijd verspreidde). In NLP kregen Ashish Vaswani en collega’s grote erkenning voor de transformer, en taal technologen als Christopher Manning en Yann Dauphin hielpen deze modellen te verfijnen voor semantisch begrip. Innovators zoals Ian Goodfellow (GANs) en Ilya Sutskever (mede-oprichter OpenAI, transformer- en RL-expert) gaven richting aan generatieve modellen. Ook groeide de rol van AI-ethici: Timnit Gebru en Joy Buolamwini toonden bias in gezichtsherkenning aan en brachten fairness op de KI-agenda, terwijl onderzoekers als Stuart Russell (die in 2019 Human Compatible publiceerde) prominente stemmen werden in het debat rond AI-veiligheid.

Fundamentele papers. De jaren 2010 hebben vele baanbrekende papers voortgebracht. We noemen er enkelen: ImageNet Classification with Deep CNNs (Krizhevsky et al., 2012) markeerde de start van de deep learning-dominantie in visuele herkenning. Generative Adversarial Nets (Goodfellow et al., 2014) introduceerde GANs en zette generatieve modellering op de kaart. Attention is All You Need (Vaswani et al., 2017) beschreef de transformer-architectuur en werd de basis voor vrijwel alle state-of-the-art taal- en visiemodellen sindsdien. In NLP is BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (Devlin et al., 2019) essentieel, omdat het voor het eerst toonde hoe self-supervised voortraining op gigantische tekstcorpora tot superieure taalbegripmodellen leidt. In games en planning zijn de Nature-artikelen van DeepMind grensverleggend: Mastering the Game of Go (Silver et al., 2016) en Mastering Chess and Shogi by Self-Play (Silver et al., 2018) demonstreren de kracht van deep RL. Even baanbrekend voor de wetenschap is Highly Accurate Protein Structure Prediction with AlphaFold (Jumper et al., 2021) – hoewel net buiten de jaren 2010 gepubliceerd, kondigde DeepMind eind 2018 de vroege resultaten al aan. Tot slot verdient Deep Learning (LeCun, Bengio & Hinton, 2015, in Nature) vermelding een overzichtsartikel dat de stand van zaken van deep learning samenvatten en de aandacht trok van wetenschappers in diverse vakgebieden.

Bedrijven en instellingen. In dit decennium streden “Big Tech”-bedrijven om KI-talent en -doorbraken. Google nam in 2014 het Britse DeepMind over en investeerde fors in fundamenteel AI-onderzoek, resulterend in o.a. AlphaGo en AlphaFold, maar ook in alledaagse toepassingen (bv. Google Photos’ automatische beeldherkenning, Google Translate’s switch naar neural MT in 2016). OpenAI werd opgericht in 2015 met als missie veilige, algemene AI te ontwikkelen; het groeide uit tot een leidende speler op het gebied van grootschalige taalmodellen (GPT-serie). Facebook (Meta) lanceerde in 2013 zijn FAIR-lab (o.l.v. Yann LeCun), dat vooruitgang boekte in ongecontroleerd leren en multimodale AI. Amazon gebruikte KI intensief in aanbevelingen en hun spraakassistent Alexa (geïntroduceerd 2014) en nam in 2019 o.a. de zelfrijd start-up Zoox over. Wereldwijd explodeerde het aantal AI-startups, met honderden bedrijven gericht op medische AI, FinTech, autonoom rijden, etc. Aan universiteiten steeg de instroom naar AI-opleidingen exponentieel – het aantal studenten in Stanford’s ML-cursus groeide van ~100 (2010) naar >1000 rond 2018. Overheden raakten direct betrokken: landen als Canada en Frankrijk lanceerden nationale AI-strategieën (~2017) en consortia zoals het Europese ELLIS-netwerk (opgericht 2018) probeerden talent in Europa te houden . Tegelijk ontstonden non-profits gericht op AI-beleid, zoals het Partnership on AI (2016, een industrie/ngo-coalitie) en het Future of Life Institute (dat o.a. open brieven over AI-risico’s initieerde). Dit onderstreept dat KI in de 2010s niet langer een niche-technologie was, maar een strategische pijler van economie en samenleving.

Hardware-ontwikkelingen. De compute-behoefte van deep learning nam exponentieel toe: volgens OpenAI steeg de benodigde rekenkracht voor toonaangevende AI-trainingen tussen 2012 en 2018 met een factor 300.000. Om hieraan te voldoen, werden GPU’s en gespecialiseerde AI-chips overal ingezet. NVIDIA lanceerde GPU-architecturen als Volta(2017, met Tensor Cores specifiek voor deep learning) en Turing (2018) die tot wel 10× snellere neurale netwerk-training mogelijk maakten dan voorgangers. Google ontwikkelde eigen Tensor Processing Units (TPU’s): ASIC-chips geoptimaliseerd voor matrix operaties, ingezet in hun datacenters sinds 2016. In 2019 onthulde startup Cerebras de eerste wafer-scale engine, een gigantische chip (op het formaat van een hele wafer) met 1,2 biljoen transistors specifiek voor AI – goed voor het in één keer draaien van extreem grote netwerken. Tegelijk maakte parallelle supercomputing sprongen: de top- supercomputers ter wereld (zoals NVIDIA’s DGX PODs) waren nu ingericht op AI-training, met tientallen petaflops aan rekenkracht per cluster. Hierdoor werd het trainen van modellen met honderden miljarden parameters binnen dagen mogelijk in plaats van maanden. Neuromorfe hardware bereikte werkende prototypes: Intel’s Loihi-chip (2018) bevatte 130k “neuronen” en toonde potentieel voor energiezuinige patroonherkenning – nuttig voor always-on sensors en edge-AI. Een ander belangrijk aspect werd geheugenbandbreedte: High Bandwidth Memory (HBM) op GPU’s en TPU’s gaf >1 TB/s data- throughput, essentieel om enorme modellen van data te voorzien. Tot slot zorgde de opkomst van clouddiensten (AWS, Azure, GCP) dat onderzoekers zonder eigen supercomputer toch honderden GPU’s konden inzetten via de cloud. Dit alles leidde tot een unieke situatie eind 2010s: wie voldoende investeerde in hardware kon AI-modellen trainen die op vele benchmarks menselijke prestaties evenaren of overtreffen. Deze schaalbaarheid aanpak – “meer data, grotere modellen, meer compute is beter” – werd een mantra, ondersteund door empirische scaling laws (Kaplan et al., 2020) die toonden dat prestaties voorspelbaar toenemen met model grootte en dataset omvang.

Samenvatting jaren 2010. Het decennium 2010–2019 bracht KI van belofte naar alomtegenwoordige technologie. Deep learning domineerde competitie na competitie, van beeldclassificatie tot games, en vond zijn weg naar consumententoepassingen als spraakassistenten en foto-organisatie. De term “kunstmatige intelligentie” werd weer met trots gebruikt, nu gestaafd door tastbare successen. Deze periode zag ook het besef groeien dat met grote kracht grote verantwoordelijkheid komt: discussies over AI-ethiek, regelgeving en veiligheid kwamen op gang. Het tijdperk vormde de opmaat naar de huidige situatie, waar foundation models – zeer grote modellen getraind op web-scale data – de basis vormen voor talloze toepassingen. Aan het einde van de 2010s was KI een speerpunt in wetenschap, industrie én overheidsbeleid, met een toekomst die zowel vol kansen als vol uitdagingen is.

Recente ontwikkelingen (2020–2025) en opkomende trends

  • 2020: OpenAI presenteert GPT-3. DeepMind onthult AlphaFold2. Contrastive learning-methoden als SimCLR behalen hoge nauwkeurigheid in computer vision.
  • 2021: DeepMind introduceert XLand. Google’s Switch Transformer maakt gebruik van sparsity. Intel lanceert Loihi 2. DeepMind introduceert AlphaCode voor het genereren van programmeercode.
  • 2022: Google introduceert PaLM. DeepMind introduceert Chinchilla en Gato. OpenAI’s Whisper wordt gelanceerd voor spraakherkenning. Stable Diffusion wordt gelanceerd voor hoge-resolutie beeldgeneratie. China produceert de meeste AI-publicaties. VS voert strenge exportcontroles op geavanceerde chips in richting China. NAVO houdt voor het eerst een gemeenschappelijke AI-oefening.
  • November 2022: OpenAI lanceert ChatGPT, gebaseerd op GPT-3.5.
  • 2023: GPT-4 wordt gelanceerd. Meta AI brengt LLaMA uit (open source model). Google kondigt Gemini aan (eind 2023). China produceert onverwacht een 7nm chip voor Huawei. VS en bondgenoten (Nederland, Japan) voeren vergelijkbare exportbeperkingen op lithografiemachines en componenten door. De EU bereikt politieke overeenstemming over de EU AI Act (juni). De Amerikaanse Defense Counterintelligence and Security Agency gebruikt AI-analytics om spionage te detecteren. De V.S. laat grote AI-bedrijven vrijwillig verantwoordelijkheden naleven (september). IBM presenteert de NorthPole chip. Quantum-startups halen $677 miljoen funding op in Q1. NAVO-landen en de VS tonen proefopstellingen van drone-zwermen die eigen beslissingen nemen.
  • Maart 2024: Nvidia introduceert de Blackwell architectuur (B100 GPU’s).
  • Juli 2024: De EU AI Act wordt officieel aangenomen.
  • 1 Augustus 2024: De EU AI Act treedt in werking.
  • 2025: Sommige verplichtingen van de EU AI Act worden van toepassing. Een smartphone kan simpele versies van ChatGPT-achtige modellen offline draaien (voorspelling). Eerste 2nm-generatie chips kunnen in productie komen (begin 2026 eerste commerciële chips op 2nm, voorspelling). G7-initiatiefrapport (Hiroshima AI process) met best practices voor gen-AI is gereed. Handhaving van strengere privacyregels (zoals GDPR) begint door te werken in AI.

De jaren 2020 begonnen direct met een spraakmakende mijlpaal: in 2020 presenteerde OpenAI GPT-3, een taalmodel met 175 miljard parameters dat een ongekend niveau van taalbegrip en -generatie bereikte (Brown et al., 2020). GPT-3 kon met minimale aanwijzingen overtuigende essays, dialogen en zelfs programmeercode produceren. Het model illustreert de kracht van self-supervised learning op grote schaal – het werd getraind op gigantische hoeveelheden niet geannoteerde tekst, puur via het voorspellen van weggelaten woorden, dus zonder menselijke labels. Kort daarna verschenen diverse andere zogeheten foundation models: Google’s PaLM (540 miljard parameters, 2022), DeepMind’s Chinchilla (2022) dat aantoonde dat slimmer trainen (meer data, minder parameters) tot betere prestaties kan leiden , en OpenAI’s eigen opvolgers van GPT-3 (zoals GPT-3.5) die via Reinforcement Learning from Human Feedback (RLHF) verder verbeterd werden in het volgen van instructies. Dit mondde eind 2022 uit in ChatGPT, een publiek toegankelijke chatbot gebaseerd op GPT-3.5 die binnen twee maanden meer dan 100 miljoen gebruikers bereikte. ChatGPT toonde hoe ver taal-AI gekomen was – het kan lange, coherente gesprekken voeren, uitleg geven, creatief schrijven – maar confronteerde ons ook met nieuwe uitdagingen zoals hallucinaties (feitelijke onjuistheden presenteren met groot zelfvertrouwen).

Naast taalmodellen brak generatieve AI door in andere media. In 2022 lanceerden onderzoeksgroepen modellen als DALL·E 2 (OpenAI) en Stable Diffusion (CompVis/Stability AI), die op basis van tekst beschrijvingen afbeeldingen van hoge kwaliteit genereren. Deze modellen, gebaseerd op diffusieprocessen, werden getraind op gigantische koppelingen van beelden en bijschriften en gaven zo iedereen met een computer de mogelijkheid om creatieve beelden te maken – iets wat zowel enthousiasme (creatieve democratisering) als zorgen (auteursrecht, deepfakes) opriep.

Tegelijkertijd blijft deep reinforcement learning evolueren. Na de triomfen in bord- en videospellen richten onderzoeksgroepen zich op complexere, meer open omgevingen. DeepMind introduceerde in 2021 bijvoorbeeld XLand, een 3D-speelwereld waar AI-agenten via spelenderwijs RL duizenden taken leren en generaliseren naar nieuwe games. OpenAI en anderen werken aan generalistische agenten: DeepMind’s Gato-model (2022) werd getraind om uiteenlopende taken te doen – chatten, Atari-spellen spelen, robotarmen aansturen – in één enkel netwerk (zij het op bescheiden niveau). Dit type “multi-modal, multi-task” model is een prototypisch begin van veelzijdige KI die niet meer strikt afgebakend is tot één taak.

Onderliggend aan veel van deze ontwikkelingen zijn enkele opkomende trends die naar verwachting de komende jaren richtinggevend blijven:

  • Zelf Gecontroleerd leren (self-supervised learning): Dit is de drijvende kracht achter het succes van GPT-3, BERT en vele vision-modellen. Het idee is dat een model leert uit de structuur in ongeëtiquetteerde data zelf, bijvoorbeeld door in teksten ontbrekende woorden of zinnen te voorspellen (zoals BERT doet) of in afbeeldingen weggelaten stukken in te vullen. Deze aanpak benut de overvloed aan ruwe data als leerbron, in plaats van dure handgemaakte labels. Yann LeCun noemde self-supervised learning “het donkere materiaal van de AI” – alom aanwezig en krachtig, maar nog niet volledig begrepen – en ziet het als sleutel tot het bereiken van common sense bij AI. Recente onderzoeken tonen dat zelfgecontroleerde modellen op veel taken volledig gesuperviseerde modellen evenaren of overtreffen, terwijl ze veel minder menselijke annotatie vereisen . In computer vision bijvoorbeeld behalen contrastive learning-methoden als SimCLR (2020) en MAE (2022) bijna dezelfde nauwkeurigheid als volledige supervisie op ImageNet. De verwachting is dat deze trend doorzet: steeds grotere en multimodale zelf-supervised modellen (die beeld, tekst en audio combineren) zullen verschijnen. Dit kan leiden tot AI-systemen met meer mensachtig begrip, omdat ze niet beperkt worden door wat expliciet gelabeld is.
  • Agentische AI: Hiermee worden AI-systemen bedoeld die niet enkel passief antwoorden of voorspellingen geven, maar zelfstandig handelingen verrichten in een omgeving, doelen nastreven, plannen en zich aanpassen. Denk aan een virtuele persoonlijke assistent die proactief afspraken maakt, of een autonoom systeem dat kan browsen, applicaties bedienen en meerdere stappen uitvoeren om een complex doel te bereiken. In 2022–2023 zagen we initiatieven als AutoGPT (een open-source experiment) en OpenAI’s plugin-ecosysteem voor ChatGPT, waarbij een taalmodel aanvullende tools en geheugen kreeg om ketens van acties uit te voeren. 

Tabel 1: Belangrijke KI/ML-mijlpalen 2000–2009

JaarMijlpaalBelang
2001Statistische vertaling door IBM en othersData-gedreven NLP vervangt regelgebaseerde systemen .
2004DARPA Grand ChallengeAutonome auto’s voltooien off-road parcours (Stanford wint) .
2006Deep Belief Networks (Hinton et al.)Herontdekking van diepere neurale netwerken via pre-training .
2007ImageNet-initiatief (Fei-Fei Li)Start grootste beelddataset (15M afbeeldingen) voor objectherkenning .
2009GPU voor deep learning (Ng et al.)GPU’s versnellen netwerktraining met factor ~10× t.o.v. CPU .
2009Netflix Prize gewonnen (BellKor team)Ensemble ML-model (matrixfactorisatie +) verbetert aanbevelingen, illustreert kracht big data.

Toelichting: Deze mijlpalen tonen de verschuiving naar data-gedreven AI en de technische doorbraken (algoritmisch en hardwarematig) die de weg vrijmaakten voor de diepe-leerrevolutie van de jaren 2010.

Recente trends en ontwikkelingen (2022–2025)

De periode 2022–2025 wordt gekenmerkt door een explosie van generatieve AI, verdere specialisatie van hardware, toenemende geopolitieke spanningen rond AI, én de eerste pogingen tot omvattende regulering. In deze sectie analyseren we de nieuwste trends in wetenschappelijk onderzoek, hardware-innovaties, AI-architecturen en geopolitieke ontwikkelingen. Tevens belichten we sectorspecifieke vooruitgang (met nadruk op defensie en overheidstoepassingen), en bespreken we thema’s als cybersecurity, AI-governance, compliance (bijv. de EU AI Act), cloud- en data-soevereiniteit.

Wetenschappelijke trends en model architecturen (2022–2025)

Foundation models en generatieve AI: Eind 2022 kwam generatieve KI in een stroomversnelling bij het grote publiek met de introductie van OpenAI’s ChatGPT (november 2022), een chatbot gebaseerd op GPT-3.5 dat een breed scala aan menselijke vragen kon beantwoorden. Dit markeerde het mainstream gaan van large language models (LLM). In 2023 zagen we een verdubbeling van het aantal nieuwe LLM’s wereldwijd vergeleken met 2022 . Modellen zoals GPT-4 (maart 2023) zetten nieuwe benchmarks, met rapporten dat GPT-4 meer dan een biljoen parameters zou kunnen bevatten – een enorme sprong vanaf de 175 miljard van GPT-3. Ook andere spelers lanceerden foundation models: Google introduceerde PaLM (540 miljard parameters) voor tekst, Meta AI bracht LLaMA uit (65B) als open source model, en nieuwe domein-specifieke foundation models verschenen voor beeld (bijv. Stable Diffusion 2022 voor hoge-resolutie beeldgeneratie), audio (OpenAI’s Whisper 2022 voor spraakherkenning) en zelfs video. Een duidelijk trend is multimodaliteit: modellen die verschillende soorten input/uitvoer combineren. Zo kan GPT-4 naast tekst ook afbeeldingen als input verwerken, en Google’s Gemini (aangekondigd eind 2023) belooft multimodale mogelijkheden . Foundation models worden dus steeds groter en breder inzetbaar, maar deze schaalvergroting brengt uitdagingen qua rekenkosten en energieverbruik.

Efficiëntie en nieuwe architecturen: Ondanks de dominantie van Transformers, verkent men alternatieven om efficiëntie problemen (met name context limieten en rekenkosten) te adresseren. Een trend is sparsity: technieken zoals Mixture-of-Experts (MoE) schakelen alleen relevante subnetwerken in, zodat niet elke parameter bij elke input wordt gebruikt. Google’s Switch Transformer (2021) en recente modellen van bedrijven als Amazon maken hier gebruik van. Daarnaast is er hernieuwde interesse in neurale netwerken met memorisatie componenten en long-context models voor bijv. lange documenten (zoals Transformer-varianten met lineaire complexiteit of external memory). Het onderzoeksveld van reinforcement learning from human feedback (RLHF) werd ook prominent na 2022, omdat dit de techniek is waarmee modellen als ChatGPT worden bijgesteld om betere, veiligere antwoorden te geven. Veel nieuwe papers richten zich op AI alignment: hoe zorg je dat zeer grote modellen handelen in lijn met menselijke intenties en ethische richtlijnen.

In academische publicaties zien we bovendien een stijging in onderzoek naar de beperkingen van grote modellen: hallucinaties (het verzinnen van feiten), bias, en robuustheid tegen adversarial input. Er is groeiende aandacht om naast het maximaliseren van model capaciteit ook betrouwbaarheid en verklaarbaarheid te verbeteren. Dit komt deels door de inzet in gevoelige domeinen zoals gezondheidszorg en recht, waar modellen niet oncontroleerbaar mogen opereren.

Wetenschappelijke output en samenwerking: Volgens het Stanford AI Index rapport 2023 is het totaal aantal AI-publicaties en -patenten in 2022 wederom gestegen, met China die de meeste AI-publicaties produceert, gevolgd door de VS. Samenwerkingen tussen industrie en academie namen toe; grote modellen worden vaak in cross-institutionele teams ontwikkeld (bijv. BigScience project dat BLOOM model uitbracht in 2022 met 1000+ onderzoekers wereldwijd). Dit decentrale en internationale karakter van onderzoek staat echter onder druk van geopolitieke spanningen (zie verder).

Al met al is de trend 2022–2025 dat KI-onderzoek enerzijds grootschaliger en meer gericht op foundation models is, en anderzijds kritischer en interdisciplinair – met aandacht voor maatschappelijke impact, cognitiewetenschap (om bijv. redeneervaardigheden van modellen te verbeteren) en zelfs rechtsgeleerdheid (in het kader van AI-regulering).

Hardware-innovaties: GPU’s, TPU’s, neuromorfisch en quantum

GPU’s en AI-versnellers: Hardwarecapaciteit blijft een bepalende factor. Nvidia heeft in 2022–2023 zijn GPU-architectuur verder verbeterd met de H100 Hopper GPU (5nm) die tot bijna 1 petaFLOP aan tensorberekeningen per seconde kan uitvoeren . Deze chip bevat ~80 miljard transistors en ondersteunt geavanceerde numerieke formats (TF32, FP16) voor AI-training. Ten opzichte van de vorige generatie (A100) biedt de H100 tot ~9× hogere training-snelheid op bepaalde modellen . Deze sprong in performance was noodzakelijk om de grootste modellen te kunnen trainen – GPT-3 training in 2020 vergde naar schatting duizenden A100-GPU’s gedurende weken; met H100 is vergelijkbare training in dagen mogelijk. In 2024 introduceerde Nvidia de nieuwe Blackwell architectuur (B100 GPU’s) met verdere verbeteringen. Ook andere fabrikanten dragen bij: AMD lanceerde MI250/MI300 GPU’s met multi-die designs, en start-ups als Cerebras bouwden afwijkende architecturen (een complete wafer als één chip) om training te versnellen.

Cruciaal is ook de infrastructuur: AI-training gebeurt in clusters (“AI supercomputers”). Zo opende Microsoft/OpenAI in 2023 een AI-datacenter met >10.000 GPU’s, en Google bouwde TPU-pods met vergelijkbare capaciteit. De nieuwste Google TPU v4 (sinds 2021 in gebruik, publiek sinds 2022) levert ~2× de performance/watt van TPU v3 en wordt ingezet in pods van 4096 chips, goed voor ~9 exaFLOP aan compute bij lage getallen precision . TPU v4 realiseert 1.1 petaFLOP per 4-chip module in BF16-precisie .

ASICs en edge-AI chips: Naast GPU’s en TPU’s zijn talloze application-specific integrated circuits (ASICs) ontwikkeld voor AI. In datacenters zijn er AI-versneller kaarten van Habana/Intel (Gaudi2, 2022) en Graphcore (GC200 IPU). Voor edge-devices integreren fabrikanten neuronale engines in mobiele SoC’s (denk aan Apple’s Neural Engine, Qualcomm’s Hexagon DSP) zodat telefoons basis AI-taken lokaal kunnen draaien (bijv. gezichtsherkenning, spraakassistent). Dit is relevant voor overheid/defensie omdat ter plaatse AI-inferentie uitvoeren, zonder afhankelijkheid van cloud, beter is voor latency en privacy. Een trend is AI at the edge: dankzij efficiëntere modellen (compressie, quantizatie) draait in 2025 al een smartphone simpele versies van ChatGPT-achtige modellen offline.

Neuromorphic computing: Hoewel (nog) niet mainstream, boekt neuromorfe hardware gestaag vooruitgang. Chips als Intel Loihi 2 (2021) en IBM NorthPole (2023) implementeren neurale netwerken via spiking neurons, gericht op extreem laag energieverbruik en event-gedreven verwerking . Dergelijke systemen zijn vooral interessant voor onderzoeksdoeleinden en specifieke niches (bv. always-on sensoren, waar traditionele AI-chips te veel stroom verbruiken). In Europa drijft het Human Brain Project dit veld, en bedrijven als BrainChip (Akida chip) brengen commerciële neuromorfe processors uit . Tot 2025 blijft dit een klein segment, maar defensie kijkt ernaar voor bijv. autonoom materieel dat lang op batterijen moet werken of voor ultra-snelle reactietijden (neuromorfe chips kunnen in microseconden spikes verwerken). Er zijn prototypes van neuromorfe camera’s en vooraan in 2023 experimenteerden lucht- en ruimtevaartlaboratoria met neuromorfe vision voor snellere objectdetectie. Toch moet benadrukt: de meeste AI-workloads draaien anno 2025 op GPU- of TPU-architectuur, neuromorfische systemen bevinden zich grotendeels in R&D-fase.

Quantum computing en AI: Quantumcomputers naderen een punt waarop ze relevant kunnen worden voor AI, al is dit (zeer) beperkt in 2025. Google (Sycamore) en IBM (Osprey) verhoogden het aantal qubits (433 qubits bij IBM, 2023) en verbeteren foutcorrectie. De combinatie AI en quantum (“Quantum Machine Learning”) belooft potentieel versnellingen in bepaalde algoritmen (bv. quantum-versneld kernel learning, of combinatoriële optimalisatie in RL). In praktijk zijn quantumcomputers echter nog te kleinschalig en instabiel voor grootschalige ML. Wel investeren landen en grote bedrijven fors: in Q1 2025 haalden quantum-startups $677 miljoen funding op, 59% meer dan een jaar eerder . Het vertrouwen is dat binnen ~5 jaar specifieke AI-relevante berekeningen (zoals simulatie voor materiaal ontdekking of het trainen van eenvoudige modellen op geëncrypteerde data via quantum AI) realiteit kunnen worden . Sommigen voorzien zelfs hybride systemen waarbij quantum-acceleratoren voor bepaalde modules van een neurale netwerk worden ingezet terwijl de rest klassiek blijft . In de defensiesector is quantum computing interessant vanwege cryptografie – het bedreigt op termijn traditionele encryptie. Dit raakt AI-beveiliging: er wordt nagedacht over post-quantum cryptography om AI-modellen en datastromen quantum-proof te maken, aangezien een quantumcomputer in de toekomst encryptiesleutels kan breken en zo mogelijk AI-systemen kan compromitteren.

Samenvattend: hardware-innovatie tussen 2022–2025 draait vooral om steeds krachtigere GPU’s/TPU’s voor het trainen van reusachtige modellen, plus aandacht voor gespecialiseerde chips (ASICs, neuromorfisch) om AI dichter bij de gebruiker en in real-time te brengen. Deze trends gaan door, gedreven door de honger van modellen naar meer compute – de Compute Index van AI laat een verdrievoudiging van benodigde rekenkracht voor toonaangevende modellen tussen 2020 en 2023 zien . Hieruit volgt direct ook een zorg: het energieverbruik en CO₂-footprint van AI nemen toe. Zo stoot een training-run van het relatief efficiënte BLOOM-model al meer CO₂ uit dan een gemiddelde Amerikaan in een jaar . Efficiëntieverbetering is dus niet alleen economisch, maar ook ecologisch urgent.

Geopolitieke ontwikkelingen en sectorale toepassingen (defensie & overheid)

AI en geopolitiek: KI is uitgegroeid tot een kerngebied van geopolitieke competitie, met name tussen de VS en China. Een cruciaal ontwikkeling was het Amerikaanse besluit in oktober 2022 om strenge exportcontroles op geavanceerde chips in te voeren richting China . Dit omvatte een verbod op de verkoop van high-end AI-versnellerchips (zoals NVIDIA A100/H100) aan Chinese entiteiten, evenals beperkingen op chipproductie-apparatuur voor Chinese fabrieken. Het doel was China’s vermogen tot trainen van toonaangevende AI-systemen en het bouwen van supercomputers af te remmen, vanuit vrees voor militair gebruik. Deze stap had meteen merkbare effecten: de Chinese halfgeleidersector werd ontwricht – prijzen van bepaalde chips stegen en bedrijven moesten personeel ontslaan. Tegelijk reageerde China met een nationale sprint naar zelfvoorziening in chips, door miljardeninvesteringen in eigen GPU-ontwerp en halfgeleiderproductie. Dit beleid wierp vruchten af: Chinese chipdesigners (bijv. Biren, Huawei Hisilicon) brachten geavanceerde AI-chips uit die in sommige benchmarks dichtbij de geblokkeerde NVIDIA-chips kwamen. SMIC, China’s grootste foundry, slaagde er onverwacht in 2023 in een 7nm chip te produceren voor Huawei, wat aantoont dat de druk tot innovatie leidt tot “verdachte” sprongen (waarschijnlijk door slimme omwegtechnieken). De VS hebben daarop in 2023 en 2024 de restricties verder aangescherpt en bondgenoten (Nederland, Japan) zover gekregen vergelijkbare exportbeperkingen op lithografiemachines en componenten door te voeren . In maart 2025 werd dit beleid door de nieuwe Amerikaanse administratie voortgezet en zelfs uitgebreid, met extra Chinese entiteiten op zwarte lijsten.

Het gevolg is een technologische kloof die dreigt te ontstaan: hoogstaande AI-hardware (en daarmee cutting-edge modeltraining) concentreert zich in de VS en bondgenoten, terwijl China gedwongen wordt eigen oplossingen te versnellen. Westerse bedrijven als NVIDIA verloren weliswaar omzet (een geschat $5.5 mld verlies door gemiste China-verkopen) , maar dit wordt door velen beschouwd als “prijs voor nationale veiligheid”. Tegelijk ziet men in dat exportcontroles alleen niet volstaan – ook investeringen in eigen capaciteit blijven nodig om voorsprong te houden . Strategische programma’s voor halfgeleiders (zoals de CHIPS Act in de VS, de EU Chips Act) zijn daarom van de grond gekomen om lokale productie te stimuleren.

Daarnaast is AI-onderzoek zelf een machtsfactor. Het aantal top AI-wetenschappers dat terugkeert naar China is toegenomen, mede door overheid stimulansen; China leidt in aantal AI-patenten. Echter, de meest geavanceerde generatieve modellen in 2023/2024 kwamen nog uit Amerikaanse labs (OpenAI, Anthropic, Google). Een interessante ontwikkeling is de open-source beweging die doorbraak modellen toegankelijk maakt – zoals Meta’s LLaMA-model dat in 2023 uitlekte en vervolgens door wereldwijd ontwikkelaars is doorontwikkeld tot versies die de prestaties van gesloten modellen benaderen. Dit maakt de geopolitieke positionering complex: niet alles laat zich controleren via staten, want open modellen kennen geen grenzen.

Defensie: In de defensiesector is AI in 2022–2025 verschoven van experiment naar implementatie. De grote mogendheden integreren AI voor zowel operationele als analytische doeleinden. Enkele trends en toepassingen:

  • Besluitvorming en commandovoering: Het Amerikaanse Ministerie van Defensie benadrukt KI als kern van digitale modernisering. AI-tools worden ingezet om commandanten sneller inzicht te geven in dreigingen en mogelijke reacties . Bijvoorbeeld, realtime fuseren van sensorinformatie (satellieten, radar, inlichtingen data) met AI helpt complexe situaties overzichtelijker maken. Dit sluit aan bij concepten als JADC2 (Joint All-Domain Command and Control) waarin AI analyses doet over alle domeinen (land, lucht, zee, cyber, ruimte).
  • Autonome systemen: Er is grote voortgang geboekt in onbemande systemen. Drones met AI-sturing voeren verkenningstaken autonoom uit, algoritmes voor doelherkenning op UAV’s zijn in staat om met hoge betrouwbaarheid militaire doelwitten te detecteren. Autonome grondvoertuigen voor logistiek en mijnopruiming worden getest. Een mijlpaal was de drone-zwerm technologie: meerdere drones die gecoördineerd opereren via AI – in 2023 toonden de VS en bondgenoten proefopstellingen van zwermen die eigen beslissingen nemen over taakverdeling, wat groot militair potentieel heeft. Tegelijk zijn er ethische zorgen: internationaal wordt gesproken over regulering van zgn. LAWS (Lethal Autonomous Weapon Systems), waarbij sommige staten moratoria willen op volledig autonome wapens. Tot 2025 is er nog geen bindend verdrag, maar o.a. EU-landen en VS hanteren intern het principe van “menselijke controle” behouden over dodelijke beslissingen.
  • Inlichtingen en analyse: AI speelt een steeds grotere rol in inlichtingenanalyse – bekend is Project Maven van het Pentagon, dat sinds 2017 computer vision gebruikt om videobeelden van drones automatisch te analyseren. In conflictgebieden (bv. Oekraïne 2022–2023) werd AI ingezet voor het herkennen van voertuigen op satellietbeelden en voor het onderscheppen van communicatie met automatische vertaling en analyse. Ook buiten het slagveld helpt AI bij het verwerken van enorme hoeveelheden open-broninformatie (Open Source Intelligence), denk aan het scannen van social media op signalen van opkomende dreigingen.
  • Cyberdefensie: Zowel aanvallend als verdedigend is AI van groot belang in cyber. Machine learning detecteert afwijkende patronen in netwerken om indringers vroeg te spotten, en helpt bij pentesting door automatisch kwetsbaarheden in code te vinden. Tegelijk maken ook tegenstanders gebruik van AI, bijvoorbeeld om phishingberichten realistischer te maken of om netwerkscans te automatiseren. Defensieorganisaties investeren daarom in AI-gedreven cybersecurity. Een voorbeeld: het Amerikaanse Defense Counterintelligence and Security Agency gebruikt AI-analytics om spionageactiviteiten tegen de defensie-industrie te detecteren . Hierbij wordt enorme hoeveelheden data (achtergrondchecks, toegangslogs) geïntegreerd om verdachte patronen (bijv. ongebruikelijke data-exfiltratie) te herkennen. Paneldiscussies binnen het Pentagon benadrukken dat AI essentieel is om in cyberspace gelijke tred te houden met geavanceerde dreigingen .
  • Administratie en logistiek: Binnen defensie en overheid vereenvoudigt AI ook tal van back-office processen. Zo noemde een functionaris dat AI ingezet wordt om gemiddeld 10.000 achtergrondonderzoeken per dag te versnellen door routinecontrole te automatiseren . Chatbot-assistenten voor personeelszaken, voorspellend onderhoud voor voertuigen en vliegtuigen (via ML-modellen die sensordata analyseren om defecten te voorspellen) en optimalisatie van voorraden en planning (mbv. reinforcement learning) zijn voorbeelden waar AI de efficiëntie verhoogt.

Overheid en publieke sector: Buiten de militaire sfeer omarmen overheden AI voor dienstverlening en beleid, maar met behoedzaamheid. Toepassingen zijn o.a. geautomatiseerde dossierbehandeling (bijv. uitkeringsaanvragen screenen op compleetheid met AI), slimme verkeersmanagementsystemen, het gebruik van ML in fraudedetectie bij belastingen en sociale zekerheid, en besluit ondersteuning bij politiewerk (risicomodellen voor patrouilles, mits binnen wettelijke grenzen). Echter, enkele misstanden (zoals de toeslagen affaire in Nederland, mede door risicomodellen met bias) hebben geleid tot strengere eisen aan transparantie van AI. Er is een duidelijke trend richting AI-governance in de publieke sector: overheden willen AI benutten, maar onder duidelijke voorwaarden van transparantie, accountability en non-discriminatie. Dit sluit aan bij de opkomst van wettelijke kaders als de EU AI Act, die ook publieke diensten raakt.

Internationale samenwerking en competitie: AI neemt ook een plaats in binnen bondgenootschappen. De NAVO formuleerde in 2021 een AI-strategie en richtte een DIANA-initiatief op om dual-use tech, incl. AI, te versnellen onder NAVO-landen. In 2022 hield NAVO voor het eerst een gemeenschappelijke AI-oefening. Tegelijk werken Europese landen samen onder programma’s als Joint Undertaking on AI (in Horizon Europe) en bilaterale projecten. De competitie blijft echter hoog: landen als Israël profileren zich als “AI start-up naties” met talloze defensiegerichte AI-bedrijven; Rusland investeert in AI voor geavanceerde wapens en propaganda (hoewel hun technologische basis kleiner is).

AI-governance, regelgeving en data-soevereiniteit

EU AI Act en wetgeving: In reactie op zowel de kansen als de risico’s van KI, hebben beleidsmakers tussen 2022–2025 flinke stappen gezet in regelgeving. Het meest prominente voorbeeld is de EU AI Act, de eerste alomvattende AI-wetgeving ter wereld. In juni 2023 bereikte de EU politieke overeenstemming over deze verordening, die in juli 2024 officieel is aangenomen. De AI Act is op 1 augustus 2024 in werking getreden en zal vanaf 2 augustus 2026 volledig van toepassing zijn (sommige verplichtingen al vanaf 2025). De kern van deze wet is een risicogebaseerde benadering: AI-toepassingen worden ingedeeld in verboden, hoog, beperkt of laag risico, met oplopende eisen afhankelijk van de categorie. Verboden worden onder meer AI-systemen voor sociale kredietscores door overheden en real-time biometrische identificatie in openbare ruimtes (tenzij bij zeer uitzonderlijke omstandigheden). Hoog-risico AI – denk aan systemen voor werving, kredietwaardigheid, rechtshandhaving, kritieke infrastructuur – moeten voldoen aan strenge eisen alvorens de EU-markt op te mogen . Die eisen omvatten o.a. risicomanagement, hoogwaardige trainingsdata (geen biased data), logging voor traceerbaarheid, transparante gebruiksinstructies, menselijke supervisie en robuustheid/cybersecurity maatregelen . Fabrikanten zullen conformiteitsbeoordelingen moeten uitvoeren en een CE-markering voor AI krijgen. Voor generatieve foundation models (GPAI) zoals grote taalmodellen heeft de AI Act specifieke transparantieverplichtingen ingevoerd: modeluitgevers moeten duidelijk maken dat gegenereerde inhoud AI-gegenereerd is (om gebruikers niet te misleiden) en moeten samenvattingen publiceren van de gebruikte trainingsdata . Ook moeten zij zorgen voor het respecteren van copyright (door rechthebbenden de mogelijkheid te geven opt-out van hun data in training) .

Een ander aspect is compliance en handhaving: elk EU-land krijgt een toezichthoudende autoriteit, en er komt een European AI Board. Boetes bij overtreding kunnen oplopen tot 6% van de wereldwijde jaaromzet voor bedrijven. Hoewel de AI Act primair op civiele toepassingen ziet, heeft deze ook implicaties voor defensie/veiligheid: AI-systemen zijn exclusief voor militaire of nationale veiligheid zijn uitgezonderd . Echter, dual-use systemen (die zowel civiel als militair inzetbaar zijn) vallen wél onder de regels zodra ze civiel gebruikt worden. Lidstaten moeten dus opletten dat bij defensie procurement eventuele civiele spin-offs voldoen. Al met al zet de EU AI Act een mondiale toon: andere jurisdicties (VK, VS op deelstaatniveau, etc.) ontlenen er ideeën aan voor eigen beleid.

Buiten de AI Act zijn er tal van soft-law initiatieven: OECD AI Principles (2019) blijven richtinggevend (transparantie, rechtmatigheid, mensgerichtheid). In de VS publiceerde het NIST in januari 2023 een AI Risk Management Framework als gids voor organisaties om AI veilig te implementeren. Er zijn sectorale regels in de maak, bijv. FDA richtlijnen voor AI in medische apparaten en discussies bij de ICAO over AI in luchtvaart. In 2025 begint bovendien de handhaving van strengere privacyregels (zoals GDPR) door te werken in AI: bedrijven moeten bij foundationmodellen rekening houden met dataprotectie (denk aan filters voor persoonsgegevens in trainingsdata).

Cybersecurity en AI: AI-governance raakt ook cybersecurity. Modellekken (zoals het uitlekken van LLaMA) en adversarial aanvallen op ML-modellen maken duidelijk dat AI-systemen zelf beveiligd moeten worden. De EU AI Act vereist bijvoorbeeld expliciet dat hoog-risico AI “adequate cybersecurity” heeft en bestand is tegen manipulatie . Overheden starten initiatieven om certificering van AI-onderdelen op veiligheid te onderzoeken, vergelijkbaar met hoe software certificeerbaar is. Een zorg is ook supply chain: de afhankelijkheid van enkele cloudproviders (Amerikaanse hyperscalers) voor AI-diensten roept de vraag op hoe veilig gevoelige overheidsdata daar zijn. Dit sluit aan bij cloud- en data-soevereiniteit.

Cloud- en data-soevereiniteit: Europa en andere regio’s hechten er groeiend belang aan om controle te houden over data en infrastructuur. In 2022–2025 heeft de EU ingezet op projecten als Gaia-X, een federatief cloudinitiatief gestart in 2019 door Duitsland en Frankrijk, dat tot doel heeft een open, Europees gecontroleerd data-infrastructuur-ecosysteem te creëren . Gaia-X is geen eigen cloud, maar stelt regels en standaarden op zodat clouddiensten interoperabel én conform Europese waarden (privacy, transparantie) zijn . Het idee is dat bijvoorbeeld gevoelige overheidsdata of defensiedata binnen EU-grenzen en onder Europese jurisdictie blijven, om afhankelijkheid van buitenlandse partijen te verminderen. Hoewel implementatie nog gaande is, heeft Gaia-X in 2022–2023 al prototypes opgeleverd van federated cloudservices en haakten o.a. de Europese Centrale Bank en grote telecombedrijven aan .

Data-soevereiniteit betekent ook dat landen eigen cloud regionen eisen: zo voltooide Microsoft eind 2023 een EU Data Boundary, waardoor alle EU-klantdata desgewenst binnen EU datacenters kan blijven. Overheden, met name in defensie, kiezen vaker voor soverein clouds – private cloudplatforms gerund door nationale partijen of in gecontroleerde samenwerkingen. Frankrijk heeft bijvoorbeeld Bleu (Azure-technologie maar gerund door Franse entiteiten) voor overheid/defensie, Duitsland heeft vergelijkbare initiatieven. De reden is niet alleen jurisdictie, maar ook resilience: in een geopolitieke crisis wil men niet dat kritieke AI-diensten uitvallen doordat bijv. een Amerikaans moederbedrijf onder sancties valt of internationale dataroutes verstoord worden.

AI-ethiek en compliance in organisaties: Bedrijven en overheidsinstanties hebben in deze periode interne governance versterkt. Er worden AI Ethics Boards ingesteld, impact assessments uitgevoerd voordat een AI-systeem uitgerold wordt, en er is aandacht voor training van personeel in AI-competenties en -ethiek. Onder druk van regelgeving als AI Act en incidenten in het verleden is er nu vaak een “model register” en documentatie (zoals Model Cards) voor belangrijke AI-toepassingen.

Internationale afspraken: Op wereldtoneel zijn enkele stappen gezet om samenwerking en normstelling rond AI te bevorderen: in oktober 2022 lanceerden de V.S. en 60 partnerlanden de Global Partnership on AI (GPAI) die kennisuitwisseling stimuleert. Bij de VN wordt gediscussieerd over AI in de context van dodelijke autonome wapens en desinformatie. In september 2023 hadden de V.S. grote AI-bedrijven laten beloven vrijwillig bepaalde verantwoordelijkheden na te leven (bijv. veiligheidstesten, watermarking van AI-content). In 2025 staat een G7-initiatiefrapport (Hiroshima AI process) gereed met best practices voor gen-AI. Dit zijn geen harde regels, maar tonen wel dat AI-governance van niche onderwerp tot hoog geopolitiek niveau is gestegen.

Conclusie trends: De jaren 2022–2025 vormen een overgangsfase: KI is alomtegenwoordig en ongekend krachtig (foundation models die op mens niveau presteren in diverse taken), maar tegelijkertijd groeit bewustzijn van risico’s (economisch, maatschappelijk, geopolitiek) en ontstaat een governance-kader. De komende jaren zullen uitwijzen hoe effectief deze regulerende en strategische maatregelen zijn en of technologische ontwikkelingen eraan vooruit blijven snellen.

Vooruitzichten en voorspellingen

  • Korte Termijn (tot 2026): Verfijning van generatieve AI-modellen (bv. GPT-4.5). Doorbraak van multimodale assistenten. Brede inzet van generatieve AI in bedrijfsprocessen en bij overheden. Integratie van al ontwikkelde AI-tools in defensie (bv. gezichtsherkenning via AI-brillen, autonome logistieke konvooien). AI-markt nadert $250–300 miljard omzet. Organisaties bereiden zich voor op de EU AI Act. Eerste 2nm chips in productie. Verdere uitbreiding van GPU-pools door cloud providers.
  • Middellange Termijn (tot 2028): AI is een “hygiene factor” in de meeste organisaties. AI wordt een integraal onderdeel van defensie doctrines. Internationale afspraken over sommige AI-gebruiken in oorlog mogelijk. Strategische verschuiving naar efficiëntie in algoritmes. Opkomst van nieuwe paradigmata zoals neural-symbolic systems. Foundation models worden zeer capabel in meerdere talen, modaliteiten en domeinen. KI-systemen scoren op gestandaardiseerde tests hoger dan 95% van menselijke deelnemers. AI-markt nadert $0.8–1 biljoen. AI wordt een kernonderdeel van asymmetrische oorlogsvoering. Mogelijk eerste gevallen van autonome systemen in gevecht (bv. anti-drone AI). EU AI Act is vol in werking, met jurisprudentie. Mogelijk federale AI-wet in de VS. Quantum computing heeft niche-inzets. Neuromorphic computing komt uit de niche voor IoT/edge-AI. AI hervormt de arbeidsmarkt.
  • Lange Termijn (tot 2030): AI-systemen ontdekken zelfstandig nieuwe kennis (bv. door AI ontdekte medicijnen). Enorme wereldwijde economische impact van AI (tot $15,7 biljoen extra output volgens PwC schatting). AI-marktomvang in de orde van $1,3–1,8 biljoen. Defensieoperaties worden volledig geïntegreerd met AI. Risico op onbedoelde gevolgen door krachtige AI (alignment probleem). Risico op ongecontroleerde wapenwedloop. Toenemende economische en sociale ongelijkheid door AI. Aanzienlijk energieverbruik van AI. AI wordt ingezet voor mondiale problemen zoals klimaat en zorg. AI is integraal onderdeel van vrijwel elke menselijke activiteit.

Gezien de huidige ontwikkelingen kunnen we enkele voorspellingen doen op korte, middellange en lange termijn. Hierbij richten we ons op technologische trends, marktverwachtingen en implicaties voor overheid en defensie. We benadrukken dat exacte voorspellingen onzeker zijn, maar baseren de inschattingen op voortgezette trends in bronnen en kwantitatieve projecties waar beschikbaar.

Korte termijn (±1 jaar, tot 2026)

Modelinnovatie en toepassingen: In het komende jaar verwachten we verfijning in generatieve AI: waarschijnlijk verschijnt GPT-4.5 of een vergelijkbaar model, mogelijk met ~10–20× GPT-3’s parameters (dus in de orde van biljoenen parameters). Modellen worden beter in “reasoning” dankzij technieken als Chain-of-Thought prompting en gespecialiseerde fine-tuning. Korte-termijn kans is de doorbraak van multimodale assistenten in de praktijk – denk aan een AI die zowel tekst, beeld als spraak integreert in bijv. kantoorsoftware of militaire besluitvorming software. We zullen generatieve AI breed zien inzetten in bedrijfsprocessen (documentatie genereren, customer service) en bij overheden (hulp bij beleidsvorming via samenvattingen, wetsanalyse).

Bedrijfsstrategieën: Grote techbedrijven gaan hun foundation models “onder de motorkap” verwerken in veel diensten: zoekmachines (zoals Microsoft Bing met GPT-4, Google met Search Generative Experience), productiviteitssoftware, cloud platforms. Voor de overheid betekent dit dat ingekochte IT steeds vaker AI-functionaliteit bevat – men moet dus alert zijn op AI-componenten en hun compliance.

Defensie: In het komende jaar ligt de nadruk op integratie van al ontwikkelde AI-tools. We voorzien kantelpunten zoals eerste operationele inzet van gezichtsherkenning via AI-brillen voor soldaten (met real-time identificatie van gezochte personen of materieel), of proefgebruik van autonome voertuigen in logistieke konvooien. Ook zal de defensiesector intensief werken aan doctrine: hoe passen we AI toe, welke taken mogen wel/niet geautomatiseerd, hoe houden we een mens in de lus? Militair leiderschap zal training in AI-basisprincipes krijgen zodat men deze systemen verantwoord kan gebruiken.

Markt en investering: De AI-markt blijft op korte termijn zeer rap groeien. Wereldwijd werd deze markt geschat op ~$198 mld in 2023, en prognoses zien ~40% jaarlijkse groei . Voor 2025 wordt ongeveer $250–300 miljard omzet verwacht. AI-hardware is daarin een grote component: chipproducenten als NVIDIA hebben record omzetten (2024 verwacht $40 mld+ in datacenter omzet, grotendeels AI gedreven). Tevens is er een opleving van investeringen in AI-startups na een dip in 2022 – mede door de generative AI hype vloeit durfkapitaal weer rijkelijk naar nieuwe spelers die specifieke modellen of toepassingen bouwen. Echter, de gouden tijden van onbeperkt geld voor elke AI-startup zijn voorbij; investeerders kijken nu scherper naar duurzame voordelen en IP (bijv. eigen model of exclusieve data).

Regulering en governance: In de EU zullen organisaties zich in 2025 voorbereiden op de AI Act – we verwachten in het komende jaar een hausse aan AI-audits en implementatie van compliance-processen. Dit is een kans voor bedrijven die AI-governance tools aanbieden. Overheden zullen ook duidelijke kaders geven voor overheidsgebruik van AI (veel landen komen met eigen AI-ethische richtsnoeren voor publieke sector, sommige binden dat in wetgeving zoals Canada’s AIA Act). De G7 en mogelijk G20 kunnen akkoord bereiken op enkele basisprincipes voor AI-veiligheid, maar iets als een mondiaal verdrag ligt nog verder weg.

Risico’s op korte termijn: De snelle adoptie kan tot incidenten leiden – denk aan grootschalige desinformatiecampagnes met deepfakes in verkiezingen (2024/2025 zijn er diverse belangrijke verkiezingen wereldwijd). Dit zou kunnen leiden tot spoedwetgeving of strengere platformregels (bv. verplichte deepfake-detectie). Ook cybercriminelen kunnen geavanceerde AI inzetten, mogelijk zien we een eerste AI-aangedreven cyberattack op kritieke infrastructuur die significante schade doet. Een ander risico is over-reliance: dat organisaties ongetest een AI-systeem cruciale beslissingen laten nemen, wat kan misgaan. Hier zal de praktijkvoorbeelden (positief of negatief) leveren die verdere discussie sturen.

Hardware en compute: In 2025 komt waarschijnlijk de eerste 2nm-generatie chips in productie (IBM en Samsung demonstreerden reeds 2nm proto’s). Dit zou begin 2026 eerste commerciële AI-chips op 2nm kunnen opleveren, met naar schatting ~1.5–2× de transistoren van 5nm chips. Ook kunnen we op korte termijn extra memory op GPU’s verwachten (H100 heeft 80GB HBM, de opvolger mogelijk 120–160GB) wat training van grotere modellen op 1 device vergemakkelijkt. Cloud Providers breiden hun GPU-pools nog eens sterk uit – het zou meevallen als eind 2025 nog geen tekort aan AI-compute is ontstaan, gezien de vraag. Initiatieven voor Europese gpu-farms (bijv. Franse Jean Zay supercomputer upgrade) komen tot voltooiing, zodat onderzoekers buiten Big Tech ook meer toegang krijgen.

Middellange termijn (±3 jaar, tot 2028)

Strategische verschuivingen: Over ~3 jaar zal AI niet langer optioneel zijn maar een hygiene factor in de meeste organisaties: vergelijkbaar met hoe internet onmisbaar is. Dit betekent dat organisaties zonder AI-ondersteuning inefficiënt zullen lijken. In defensie vertaalt dit zich naar AI als integraal onderdeel van doctrines – net zoals luchtmacht ooit revolutionair was maar nu standaard is. We verwachten dat rond 2028 alle NAVO-landen bijvoorbeeld een operationeel AI-center hebben en AI in oefeningen routinematig meenemen. Ook is het waarschijnlijk dat tegen die tijd internationale afspraken over een aantal AI-gebruiken in oorlog zijn gemaakt (bijv. misschien niet een vol verbod op LAWS, maar wel codes of conduct tussen grootmachten over hoe AI-systemen wel/niet te gebruiken bij confrontaties, analogie met afspraken over cyberwapens).

Technologisch: Op middellange termijn zou de huidige lijn van schaalvergroting fysiek tegen grenzen kunnen aanlopen (kosten, energie). Daarom voorzien we een strategische verschuiving naar innovatie in algoritmes voor efficiëntie. Wellicht dat nieuwe paradigmata de kop opsteken: denk aan neural-symbolic systems die logische redeneer modules combineren met neurale netwerken, om betere consistentie en foutreductie te bereiken. Ook TinyML en gedistribueerde AI leren (federated learning) worden belangrijker als tegenhanger van de hyper-scale AI: men wil AI overal kunnen draaien, niet alleen in de cloud.

Foundation models evolutie: In 2028 is het goed mogelijk dat we foundation models hebben die meertalig, multimodaal en domein-overstijgend zeer capabel zijn – een soort algemene assistent die met minimale instructie specifieke taken leert. OpenAI’s streven naar AGI (kunstmatige algemene intelligentie) zou in deze horizon kunnen resulteren in een systeem dat in sommige opzichten menselijke expert prestaties evenaart of overtreft in een breed spectrum van cognitieve taken. Echter, waarschijnlijk is dit nog geen volwaardige AGI met onafhankelijk doelbewustzijn; het zullen geavanceerde voorspellers zijn. Performance metrics zoals de MMLU (massive multitask language understanding) of STEM benchmarks zouden richting bijna perfect scores kunnen gaan voor zulke modellen.

Kwantitatieve benchmarks: Het is lastig precieze cijfers te geven, maar bijvoorbeeld: in 2023 haalde GPT-4 rond ~80% op Bar exam en top 10% op GRE. In 2028 verwachten we dat KI-systemen op praktisch alle gestandaardiseerde kennis- en redeneertests hoger scoren dan 95% van menselijke deelnemers. In de industrie wordt vaak de term “100T model” genoemd – mogelijk dat tegen 2028 een 100 biljoen-parameter model (groter dan aantal synapsen in menselijk brein) is getraind , al is niet de parameter-telling heilig, efficiënte architectuur kan ook met minder meer bereiken.

Marktdynamiek: De AI-markt in 2028 zou de grens van $0.8–1 biljoen naderen volgens projecties . Eén schatting geeft ~$836 mld in 2030 , dus voor 2028 ~$600-700 mld, wat neerkomt op >35% CAGR. Dit hangt af van macro-economische omstandigheden, maar sectoren als gezondheidszorg, finance en retail zullen de grootste afnemers blijven. Nieuwe sectoren zoals onderwijs kunnen tegen 2028 ook een substantieel deel uitmaken als gepersonaliseerd leren via AI doorbreekt.

De verdeling kan veranderen: momenteel domineren VS en China de AI-markt, maar Europa’s aandeel kan groeien indien de belofte van soevereine AI uitkomt. Europa wil tegen 2030 “75% van bedrijven gebruikt cloud/AI” , dat impliceert een enorme adoptie sprong in eigen markt.

Defensie en geopolitiek: Op middellange termijn is het risico hoog dat AI een kernonderdeel van asymmetrische oorlogsvoering wordt. Zwakkere staten of non-state actors kunnen via goedkope AI (bv. open-source modellen en consumenten drones) verstorende capaciteiten verkrijgen. Dit dwingt sterke staten tot vernieuwde strategie voor conflicten en stabiliteit operaties. We kunnen rond 2028 de eerste gevallen zien van autonome systems in gevecht (bijv. drones die autonoom andere drones neerhalen – anti-drone AI). Defensief zal men ook AI inzetten voor raketverdediging en ruimtebewaking (te veel objecten in orbit voor handmatige tracking).

Geopolitiek is de vraag: blijft de AI-ontwikkeling geconcentreerd of raakt deze verder verspreid? Waarschijnlijk is dat open source democratisering ertoe leidt dat veel landen tegen 2028 toegang hebben tot geavanceerde models. India, bijvoorbeeld, investeert nu al in AI en kan een grote speler zijn tegen die tijd. Ook de rol van Afrikaanse landen kan groeien als infrastructuur verbetert er is menselijk talent dat via online cursussen AI leert, hoewel investeringen nog achterlopen.

Regulering/compliance: Tegen 2028 is de EU AI Act vol in werking. We verwachten dat er tegen die tijd jurisprudentie is gevormd (bedrijven beboet of gecorrigeerd). Dit leert wat praktisch haalbaar is en wat bijgesteld moet worden. Mogelijk wordt de AI Act herzien rond 2028 om lessons learned te verwerken. Andere regio’s zullen eigen varianten hebben: denk aan een federale AI-wet in de VS (als de politieke wil er komt), of strengere VN-aanbevelingen. Belangrijk: AI-governance internationalisering. In scenario 2028 zou bijvoorbeeld een global council on AI kunnen bestaan (al is dit speculatief) waarin grootmachten basisregels afspreken zoals: geen autonome nuclear launch decisions, samenwerking bij AI-caused incidents, enz. Dit hangt echter sterk af van de geopolitieke sfeer.

Quantum & neuromorphic: Tegen 2028 zou quantum computing bepaalde niche-inzets hebben, maar voor algemene AI-verwerking is nog onzeker. Neuromorphic kan intussen uit de niche komen voor IoT – een spinoff effect is dat bijv. neuromorfe co-processors in smartphones of sensors zitten voor always-on kleine modellen. Dit zal reguliere cloud-AI niet vervangen maar aanvullen (edge AI).

Sociaal-economisch: AI zal in 3 jaar ook de arbeidsmarkt beginnen te hervormen. Enkele banen zullen merkbaar veranderen of deels verdrongen zijn (bijv. basale tekstschrijvers, customer support zonder complexiteit, sommige programmeerwerk dankzij code-AI). Tegelijk ontstaan nieuwe rollen (AI-auditors, prompt-engineers, enz.). Overheden moeten beleid maken voor reskilling van personeel. In defensie zal men traditionele rollen herdefiniëren (bijv. analisten die nu AI-curatoren worden in plaats van zelf ruwe analyses uit te voeren).

Risico’s middellange termijn: Een zorg is dat de AI race tussen bedrijven/landen tot onbezonnen ontwikkeling leidt, waarbij te weinig aandacht is voor veiligheid. Dit zou kunnen culmineren in een incident waar een AI-systeem groots faalt – denk aan een beurscrash veroorzaakt door trading-AI interacties, of een militair incident door misclassificatie van een doelwit. Zo’n gebeurtenis kan het vertrouwen schaden en tot strengere regulering of moratoria leiden (vergelijkbaar met hoe genetisch onderzoek soms pauzes kende).

Lange termijn (±5 jaar, tot 2030)

Kijken we 5 jaar vooruit, richting 2030, dan betreden we terrein van meer onzekerheid maar ook van potentieel transformatieve ontwikkelingen.

Algemene AI & “AGI” risico’s: Sommigen speculeren dat tegen 2030 we dicht bij een AI met algemeen kennisniveau komen. Dat blijft omstreden – veel experts achten dit nog decennia weg, anderen zien een 10% kans binnen 5 jaar. Wat wel waarschijnlijk is: AI-systemen worden zó krachtig dat ze zelfstandig nieuwe kennis ontdekken. Bijvoorbeeld, een AI-onderzoeker die zelf wetenschappelijke hypotheses genereert en test (in simulatie of labrobots aanstuurt). AlphaFold heeft dit in bioinformatica al deels gedaan; tegen 2030 zien we mogelijk door AI ontdekte medicijnen, materialen, wiskundige stellingen. Dit versnelt innovatie enorm, maar roept ook vragen op over de controleerbaarheid en eigenaarschap (octrooien op AI-ontdekkingen?).

Kwantitatieve projecties: De wereldwijde economische impact van AI kan enorm zijn. PwC schatte al dat AI in 2030 tot $15,7 biljoen aan extra wereldwijde economische output zou kunnen leiden – dit is echter niet de marktomvang maar het totaal effect (productiviteits- en consumenten effecten). Mocht AI-productiviteit echt exponentieel doortrekken, zouden deze cijfers kunnen materialiseren. We verwachten dat rond 2030 AI echt merkbaar bijdraagt aan BBP-groei in ontwikkelde economieën (mogelijk 0,5–1 procentpunt extra groei per jaar). Landen die nu veel investeren (VS, China, wellicht India) plukken daar economische en militaire vruchten van en kunnen voorsprong nemen op achterblijvers. Dit vergroot ook globale ongelijkheid, tenzij opensource en goedkope hardware het democratiseren.

Markt 2030: Schattingen voor de AI-marktomvang in 2030 variëren, maar meerdere analisten voorzien iets in de orde van $1,3–1,8 biljoen . Grand View Research noemt $1,81 biljoen . Dit impliceert bijna een factor 10 groei t.o.v. 2023. Sectoren als media/advertising, finance en healthcare zullen het grootste aandeel hebben . Dit betekent dat AI-bedrijven in 2030 tot de allergrootste ter wereld zullen behoren – de huidige big tech kunnen getransformeerd zijn tot “AI-first” bedrijven, of nieuwe spelers (misschien open-source coalities of verrassende nieuwkomers) nemen significante delen van de markt. Voor defensie-industrie ontstaat een enorme markt voor “AI in defense” – sensoren, commando-systemen, autonome voertuigen. We zien nu al traditionele defensiebedrijven (Lockheed Martin, Thales etc.) AI startups opkopen; tegen 2030 zijn deze wellicht volledig geïntegreerd en leveren ze standaard AI-ondersteunde wapensystemen.

Defensie 2030 scenario: Stel in 2030 een militaire operatie. KI is overal: autonome drones bewaken perimeters en voeren indien nodig aanvallen uit met menselijke last-minute toestemming; intelligence software geeft in realtime situatie rapportages; cyber-AI verdedigt continu netwerken en valt vijandige communicatie aan. Beslissingen gaan sneller, waardoor de OODA-loop (observe-orient-decide-act) drastisch verkort is. Dit kan leiden tot instabiele situaties als menselijk overleg tekortschiet – een risico is b.v. onbedoelde escalatie omdat AI-systemen elkaar in milliseconden bevechten. Daarom is te hopen dat er vertraging elementen en robuuste communicatiekanalen tussen opponenten worden ingebouwd.

Men verwacht ook dat tegen 2030 ruimte (satellieten) vol zit met AI: zowel voor surveillance als voor mogelijke offensieve doeleinden (satellieten die andere saboteren). Mogelijk ontstaan nieuwe verdragen specifiek voor AI in de ruimte of onderzee.

Samenleving: In de maatschappij zal AI in 2030 zó verweven zijn dat het onderscheid tussen “AI” en “niet-AI” functies verdwijnt. Mensen zijn gewend geraakt aan AI-collega’s en co-piloten in allerlei taken. Onderwijs is getransformeerd (docenten gebruiken AI voor lesmateriaal, leerlingen krijgen AI-tutors). Zorg wordt ondersteund door AI-diagnostiek op grote schaal. Hopelijk worden ook AI voor klimaat en milieu grote schaal ingezet – bv. betere klimaatmodellering, energiebesparing door slimme grids, etc.

Risico’s en langetermijnrisico’s: Hoe krachtiger de AI, hoe groter de potentiële risico’s:

  • Onbedoelde gevolgen: Een langetermijnzorg is dat AI-systemen doelen gaan nastreven die niet volledig overeenkomen met de menselijke bedoeling. Dit is het AI alignment probleem. In ergste geval (geschetst door sommige futurologen) zou een superintelligente AI met een verkeerd geformuleerd doel ernstige schade kunnen aanrichten. De kans hierop binnen 5 jaar is klein volgens de meeste experts, maar niet nul – daarom investeren organisaties als OpenAI, DeepMind, overheidssubsidies in AI safety onderzoek. We verwachten dat dit tegen 2030 een volwassen subdiscipline is, met bijvoorbeeld formele verificatiemethoden voor neurale netwerken en regelgevers die “redteaming” verplicht stellen voor geavanceerde AI.
  • Wapenwedloop: Een ander risico is een ongecontroleerde wapenwedloop waar ethische overwegingen achterblijven. Als bijvoorbeeld een autoritair regime in 2028 besluit autonome wapens massaal te deployen, kan dat een destabiliserend effect hebben (zoals raketwedloop in Koude Oorlog). De internationale gemeenschap zal moeten kiezen tussen arms control of mee-escaleren. Hierin is proactief diplomatiek werk nodig nu reeds.
  • Economische en sociale ongelijkheid: AI kan rijkdom concentreren bij degenen met toegang tot technologie en data. Zonder tegenbeleid (zoals herverdeling, AI-dividenden, omscholing) zouden miljoenen mensen werk kunnen verliezen tegen 2030. Het positieve scenario is dat nieuwe banen en lagere kosten dit compenseren; het negatieve is structurele werkloosheid in bepaalde sectoren. Overheden moeten dus beleid klaar hebben (opleiding, sociaal vangnet) om de transitie op te vangen. Dit is minder direct strategisch voor defensie, maar politieke instabiliteit door werkloosheid kan indirect veiligheid aantasten.
  • Klimaatimpact: AI’s energiegebruik zou tegen 2030 aanzienlijk deel van stroomverbruik kunnen uitmaken (sommige projecties zeggen tot ~10% wereldwijd als ongeremd groeit). Als hardware-efficiëntie niet voldoende toeneemt, ontstaat een duurzaamheid-issue. Hier moeten groene innovaties in datacenters (zoals immersiekoeling, hernieuwbare energie, zelfs kijken naar optische of quantumcomputing voor lagere energiekost per operatie) soelaas bieden.

Positieve langetermijnvisie: Uiteraard zijn er ook enorme kansen: AI kan veel wereldproblemen helpen aanpakken. In 5 jaar kan AI-gestuurde precision farming honger terugdringen, medische AI kan diagnostiek wereldwijd bereikbaar maken (een “AI dokter” op je smartphone voor basale zorg). In de defensiesfeer kan AI helpen menselijk leven te beschermen door gevaarlijke taken over te nemen (bv. mijnenruimen door robots). Strategisch kan het een afschrikkend effect hebben: als verdediging door AI heel sterk is (denk aan automatische raketafweer die elke aanval pareert), kan dit oorlog minder aantrekkelijk maken.

Overheidsstrategie 5 jaar: Voor overheden is de uitdaging om wendbaar te zijn – technologie gaat sneller dan beleid. Dus in 5 jaar moet geleerd zijn om flexibele kaders te gebruiken. Misschien moeten governance sandboxes worden ingericht waar nieuwe AI veilig beproefd kan worden, voor men het toelaat. Defensie zal continu moeten samenwerken met de civiele innovatie sector, anders achterop raken.

Slotopmerking: KI zal in 2030 naar alle waarschijnlijkheid een integraal onderdeel vormen van vrijwel elke menselijke activiteit, net zoals elektriciteit dat in de 20e eeuw werd. De komende jaren zijn daarmee cruciaal om te zorgen dat deze technologie op een verantwoorde, veilige en voor iedereen voordelige manier wordt ingezet. Dat vergt strategische visie, internationale samenwerking en voortdurende kritische evaluatie – aspecten die in dit rapport op basis van recente trends zijn belicht.


AI wall of fame de belangrijkste personen die in de verstrekte bronnen worden genoemd, met een korte biografie:

  • Alan Turing: Legde in 1950 de conceptuele basis voor denkende machines met zijn artikel “Computing Machinery and Intelligence”, waarin hij de Turing-test voorstelde.
  • Claude Shannon: Publiceerde in 1950 een baanbrekende analyse over het programmeren van computers om schaak te spelen, en organiseerde mee de Dartmouth Conference in 1956.
  • Christopher Strachey: Slaagde er in 1951 in om een damspelprogramma te laten draaien op de Ferranti Mark I-computer.
  • Dietrich Prinz: Slaagde er in 1951 in om een schaakspelprogramma te laten draaien op de Ferranti Mark I-computer.
  • Arthur Samuel: Ontwikkelde bij IBM een zelflerend dambordprogramma (1959) dat leerde van fouten, een vroege demonstratie van machine learning.
  • John McCarthy: Organiseerde mee de Dartmouth Conference in 1956, introduceerde toen de term “kunstmatige intelligentie”, en ontwierp in 1958 de programmeertaal Lisp. Oprichter van het Stanford AI Lab (SAIL).
  • Marvin Minsky: Organiseerde mee de Dartmouth Conference in 1956, mede-oprichter van het MIT Artificial Intelligence Laboratory, en analyseerde in het boek “Perceptrons” (1969) de beperkingen van éénlaagse perceptrons. Introduceerde het concept van frames in 1974.
  • Nathan Rochester: Organiseerde mee de Dartmouth Conference in 1956.
  • Allen Newell: Ontwikkelde samen met Herbert Simon de Logic Theorist in de late jaren ’50 en het General Problem Solver-concept in de jaren ’60. Bleef toonaangevend in de cognitiewetenschap.
  • Herbert Simon: Ontwikkelde samen met Allen Newell de Logic Theorist en het General Problem Solver. Ontving in 1978 de Nobelprijs voor “bounded rationality”.
  • Joseph Weizenbaum: Bouwde in 1966 ELIZA, ’s werelds eerste chatbot die een psychotherapeut nabootste. Was een vroege AI-ethicus met kritische houding ten aanzien van overdreven AI-optimisme.
  • J. Alan Robinson: Introduceerde in 1965 de resolutie-bewijsmethode, een algoritme voor efficiënt redeneren met logische formules.
  • Ross Quillian: Ontwierp in 1966 semantische netwerken als model voor conceptuele kennisrepresentatie.
  • Seymour Papert: Werkte aan cognitieve ontwikkeling (Logo-taal) en perceptron-theorie. Mede-auteur van “Perceptrons” (1969) en mede-oprichter van het MIT AI Lab.
  • Edward Feigenbaum: Ontwikkelde DENDRAL in de jaren ’60, een expertsysteem voor chemische molecuulidentificatie. Werd de kampioen van expertsystemen dankzij DENDRAL en zijn rol bij MYCIN. Richtte in 1980 Teknowledge op.
  • Donald Michie: Werkte aan robots en vertaling bij het Stanford Research Institute (SRI), waar Shakey ontstond.
  • Aleksandr Ivachnenko: Verrichtte in de Sovjet-Unie baanbrekend werk door in 1965 een meerlaagse neurale-net trainer te ontwikkelen (nu erkend als eerste deep learning-algoritme).
  • Lotfi Zadeh: Introduceerde in 1965 de fuzzy logic.
  • Earl Sacerdoti: Bouwde in 1971 een van de eerste hiërarchische planners (ABSTRIPS).
  • Austin Tate: Ontwikkelde in 1975 NONLIN, een partial-order planning algoritme.
  • Bruce Buchanan: Werkte aan methoden om kennis te representeren en meta-redenering over regels mogelijk te maken (met Randall Davis).
  • Randall Davis: Werkte aan methoden om kennis te representeren en meta-redenering over regels mogelijk te maken (met Bruce Buchanan).
  • Drew McDermott: Ontwikkelde eind jaren ’70 de basis voor niet-monotone logica (met Jon Doyle) om met onvolledige informatie te redeneren.
  • Jon Doyle: Ontwikkelde eind jaren ’70 de basis voor niet-monotone logica (met Drew McDermott).
  • Alain Colmerauer: Creëerde in 1972 samen met Philippe Roussel de logische programmeertaal Prolog.
  • Philippe Roussel: Creëerde in 1972 samen met Alain Colmerauer de logische programmeertaal Prolog.
  • Kunihiko Fukushima: Startte midden jaren ’70 onderzoek naar neurale netwerken (de “neocognitron”, 1979).
  • Tom Mitchell: Zijn artikel “Version Spaces” (1978) definieerde formeel hoe een algoritme concepten kan generaliseren uit voorbeelden.
  • Raj Reddy: Toonaangevend aan Carnegie Mellon voor spraakherkenning in de jaren ’80.
  • Hans Berliner: Toonaangevend aan Carnegie Mellon voor games (schaakcomputer Hitech) in de jaren ’80.
  • Geoffrey Hinton: Toonaangevend in neurale netwerken, met name aan de University of Toronto. Mede-auteur van de techniek voor ongecontroleerde pre-training van diepe neurale netwerken (2006) en een van de “Godfathers of Deep Learning” (Turing Award 2018). Leidde het team dat AlexNet ontwikkelde (2012). Speelde een belangrijke rol in doorbraken in spraakherkenning rond 2013 en gebruikte al GPU’s voor netwerktraining in 2009.
  • Roger Schank: Toonaangevend aan Yale voor case-based reasoning in de jaren ’80.
  • Danny Hillis: Ontwikkelde in 1985 de Connection Machine, een innovatief parallel systeem voor AI-algoritmen.
  • Ernst Dickmanns: Bouwde in 1986 een experimentele zelfrijdende auto.
  • Carver Mead: Zijn werk met Lynn Conway maakte het eenvoudiger eigen chips te ontwerpen (VLSI), wat leidde tot de eerste neurale-netwerk chips.
  • Lynn Conway: Haar werk met Carver Mead maakte het eenvoudiger eigen chips te ontwerpen (VLSI), wat leidde tot de eerste neurale-netwerk chips.
  • Corinna Cortes: Mede-auteur van het Support Vector Machine (SVM)-algoritme (1995).
  • Vladimir Vapnik: Mede-auteur van het Support Vector Machine (SVM)-algoritme (1995).
  • Yoav Freund: Mede-auteur van het AdaBoost algoritme (1997).
  • Robert Schapire: Mede-auteur van het AdaBoost algoritme (1997).
  • Sepp Hochreiter: Introduceerde samen met Jürgen Schmidhuber het Long Short-Term Memory (LSTM)-netwerk in 1997.
  • Jürgen Schmidhuber: Introduceerde samen met Sepp Hochreiter het Long Short-Term Memory (LSTM)-netwerk in 1997.
  • Leslie Kaelbling: Mede-auteur van een invloedrijke survey over POMDP-problemen (1998).
  • Stuart Russell: Mede-auteur van een gezaghebbend overzichtswerk over KI (1995) en een prominente stem in het debat rond AI-veiligheid, publiceerde “Human Compatible” in 2019.
  • Peter Norvig: Mede-auteur van een gezaghebbend overzichtswerk over KI (1995).
  • Gerald Tesauro: Ontwikkelde in 1992 TD-Gammon, dat via reinforcement learning leerde backgammon op wereldkampioen-niveau te spelen.
  • Hans Moravec: Toonaangevend in robotica aan Carnegie Mellon in de jaren ’90.
  • Takeo Kanade: Toonaangevend in robotica aan Carnegie Mellon in de jaren ’90.
  • Fei-Fei Li: Introduceerde de ImageNet-database in 2009 en is leidend in computer vision en AI4Good-initiatieven aan Stanford. Combineerde visie en leren door ImageNet op te zetten.
  • Yoshua Bengio: Mede-auteur van neurale word embeddings (2003) en een van de “Godfathers of Deep Learning” (Turing Award 2018). Blijft een deep learning hub in Montreal.
  • Yann LeCun: Een van de “Godfathers of Deep Learning” (Turing Award 2018). Leidde Facebooks FAIR-lab vanaf 2013, gericht op ongecontroleerd leren en multimodale AI. Noemde self-supervised learning “het donkere materiaal van de AI”.
  • Andrew Ng: Liet in 2011 zien wat unsupervised learning kon met het “Google Brain” project. Verspreidde deep learning wereldwijd via MOOCs en onderzoek bij Stanford/Baidu.
  • Sebastian Thrun: Was invloedrijk in autonome voertuigen (met DARPA Grand Challenge winst en latere Google/Waymo-projecten).
  • Chris Urmson: Was invloedrijk in autonome voertuigen (met DARPA Grand Challenge winst en latere Google/Waymo-projecten).
  • Red Whittaker: Was invloedrijk in autonome voertuigen (met DARPA Grand Challenge winst en latere Google/Waymo-projecten).
  • Bill Gates: Investeerde aanzienlijk in KI via Microsoft Research in de jaren 2000.
  • Larry Page: Mede-oprichter van Google, investeerde aanzienlijk in KI.
  • Sergey Brin: Mede-oprichter van Google, investeerde aanzienlijk in KI.
  • Jure Leskovec: Bracht KI naar sociale-netwerkanalyse in de jaren 2000.
  • Jon Kleinberg: Bracht KI naar sociale-netwerkanalyse in de jaren 2000.
  • Leo Breiman: Mede-auteur van de theorie achter Random Forests (2001).
  • Tim Berners-Lee: Mede-auteur van “The Semantic Web” (2001), spoorde aan tot semantische annotatie van webinformatie.
  • Trevor Hastie: Mede-auteur van “The Elements of Statistical Learning” (2009).
  • Alex Krizhevsky: Ontwikkelde AlexNet en won in 2012 overtuigend de ImageNet-beeldherkenning competitie (onder Geoffrey Hinton).
  • Ian Goodfellow: Introduceerde Generative Adversarial Networks (GANs) in 2014.
  • Ashish Vaswani: Mede-auteur van de Transformer-architectuur (“Attention is All You Need”) in 2017.
  • Ilya Sutskever: Mede-oprichter van OpenAI en expert in transformers en reinforcement learning.
  • Demis Hassabis: Oprichter van DeepMind, brein achter AlphaGo en AlphaFold.
  • Christopher Manning: Taaltechnoloog die hielp bij het verfijnen van taalmodellen.
  • Yann Dauphin: Taaltechnoloog die hielp bij het verfijnen van taalmodellen.
  • Timnit Gebru: Toonde bias in gezichtsherkenning aan en bracht fairness op de KI-agenda.
  • Joy Buolamwini: Toonde bias in gezichtsherkenning aan en bracht fairness op de KI-agenda.
  • David Silver: Leidde het DeepMind team dat AlphaGo (2016) en AlphaZero (2017, versloeg schaken en shogi) ontwikkelde.
  • John Jumper: Leidde het DeepMind team dat AlphaFold2 (2020) ontwikkelde en het eiwitvouwingsprobleem oploste.

Belangrijkste inzichten:

• KI evolueerde van symbolische logica in de jaren 1950 naar datagedreven deep learning in de jaren 2000.

• 2010–2019 markeerde de dominantie van foundation models zoals transformers.

• Sinds 2022 democratiseert generatieve KI de technologie voor dagelijks gebruik.

• De komende 1–5 jaar wordt AI strategischer ingezet in defensie, overheid, en cloud-soevereiniteit.

• Regulering (zoals de EU AI Act) en ethiek zullen bepalende factoren zijn voor de schaalbare adoptie van AI.

Historie per Decennium

1950–1959: Symbolische KI en de Dartmouth Conferentie

• 1956: Dartmouth Conference markeert de geboorte van KI als academisch veld.

• Focus op symbolisch redeneren en logica-gebaseerde modellen.

1960–1969: Eerste Toepassingen en Expert Systems

• Ontwikkeling van vroege natural language processing (ELIZA).

• Eerste mobiele robots (Shakey).

1970–1979: Kennisrepresentatie en Eerste AI-Winter

• Opkomst van frames en rule-based systemen.

• Lighthill-rapport leidt tot eerste terugval in AI-investeringen.

1980–1989: Revival via Expert Systems

• Succes van commerciële expert systems zoals XCON.

• Symbolische en connectionistische KI groeien parallel.

1990–1999: Data-gedreven KI en Statistische Methoden

• 1997: Deep Blue verslaat Kasparov.

• Opkomst van SVM’s, boosting en big data mining.

2000–2009: Big Data en Herontdekking van Deep Learning

• Internet en Web 2.0 zorgen voor data-explosie.

• 2006: Hinton’s Deep Belief Networks lossen trainproblemen diepe netwerken op.

• 2009: GPU-acceleratie maakt schaalbaar deep learning mogelijk.

2010–2019: Foundation Models, AlphaGo en AlphaFold

• 2012: AlexNet wint ImageNet; start deep learning revolutie.

• 2017: Transformer-architectuur vervangt RNN’s.

• 2016: AlphaGo verslaat menselijke wereldkampioen Go.

• 2018: AlphaFold lost eiwitvouwing op.

• Ontstaan van self-supervised learning en grootschalige foundation models zoals BERT, GPT-2.

Trends 2022–2025

Generatieve KI en Multimodaliteit

• Doorbraak van foundation models zoals GPT-4, PaLM, LLaMA.

• Multimodale AI integreert tekst, beeld, spraak.

Hardwareontwikkelingen

• Nvidia H100/Blackwell, Google TPU v4.

• Versnelling door ASICs, neuromorfische chips, quantum-initiatieven.

Geopolitieke Dynamiek

• AI als strategisch wapen tussen VS, China en EU.

• Exportbeperkingen op AI-chips, nationale AI-strategieën.

Governance, Ethiek en Regulering

• EU AI Act ingevoerd; risicogebaseerde regulering.

• Nadruk op transparantie, cybersecurity, data-soevereiniteit (Gaia-X).

Sectorale Impact: Defensie en Overheid

• Integratie van AI in besluitvorming, autonome systemen, cyberdefensie.

• Overheden richten AI-governance structuren in.

Toekomstverwachtingen

1 Jaar (tot 2026)

• Opschaling van multimodale foundation models.

• Versterkte AI-compliance door implementatie AI Act.

• AI-integratie in overheidssystemen en defensieprototypes.

3 Jaar (tot 2028)

• Volwassenwording van AI in operationele defensie-infrastructuren.

• Doorbraak in efficiëntie-algoritmes en energy-saving AI.

• Europese soevereine clouds mainstream voor overheidsdata.

5 Jaar (tot 2030)

• AI als basistechnologie: “AI-first” infrastructuren.

• Strategische autonomie in AI-chipproductie in VS/EU.

• AI-gestuurde innovaties in geneesmiddelen, klimaattechnologie en defensieve systemen.

Conclusies en Aanbevelingen

Conclusies:

• KI is geëvolueerd van theoretisch onderzoek naar sleuteltechnologie.

• Geopolitiek, governance en ethiek zijn bepalend voor toekomstig gebruik.

• Defensie en overheid moeten strategisch anticiperen op AI-integratie.

Aanbevelingen:

1. Investeer in interne AI-governance structuren (inclusief ethische audits).

2. Versnel de implementatie van soevereine cloudoplossingen.

3. Versterk internationale samenwerking rond AI-normen en veiligheid.

4. Implementeer AI-vaardighedenprogramma’s in overheid en defensie.

5. Stimuleer R&D voor verantwoorde en energie-efficiënte AI.

Bronnen

1. IBM AI History Timeline

2. Stanford AI Index Report 2023

3. “Learning Multiple Layers of Representation” (Hinton et al., 2006)

4. “Attention is All You Need” (Vaswani et al., 2017)

5. EU Artificial Intelligence Act (2024)

6. OECD AI Principles

7. DARPA Reports on AI (2005–2023)

8. PwC: “Sizing the prize: What’s the real value of AI for your business and how can you capitalise?” (2017)

9. CSIS Analysis on US-China AI Competition (2023)

10. Nvidia H100 Architecture Whitepaper (2022)

Blijf op de hoogte

Wekelijks inzichten over AI governance, cloud strategie en NIS2 compliance — direct in je inbox.

[jetpack_subscription_form show_subscribers_total="false" button_text="Inschrijven" show_only_email_and_button="true"]

Wat ontvangt u? Bekijk edities →

Klaar om van data naar doen te gaan?

Plan een vrijblijvende kennismaking en ontdek hoe Djimit uw organisatie helpt.

Plan een kennismaking →

Ontdek meer van Djimit

Abonneer je om de nieuwste berichten naar je e-mail te laten verzenden.