← Terug naar nieuwsbrief

AI-Nieuws 11 april 2025

Nieuwsbrief

By Dennis Landman

1. EU lanceert €20 miljard plan voor “AI-gigafactories” om technologische achterstand in te halen

Bron: The GuardianSamenvatting: De Europese Commissie heeft een ambitieus investeringsplan van €20 miljard onthuld voor de bouw van 3-5 “AI-gigafactories” – geavanceerde supercomputing-faciliteiten die zijn uitgerust met meer dan 100.000 AI-processors per locatie. Dit is ruim vijf keer krachtiger dan bestaande AI-onderzoekscentra in Europa. Het plan beoogt Europa’s positie in de wereldwijde AI-competitie te versterken tegenover de VS en China.Strategische impact: De EU erkent hiermee formeel haar technologische achterstand. Volgens een Stanford rapport uit 2024 produceert de VS 40 “invloedrijke AI-modellen” per jaar, China 15, en Europa slechts 3. De nieuwe strategie is een poging tot technologische soevereiniteit, maar stuit op uitdagingen rond energieverbruik en mogelijk herziening van de pas aangenomen AI Act.

The Guardian

2. Google introduceert “AI Co-Scientist” als doorbraak voor wetenschappelijk onderzoek

Bron: Google ResearchSamenvatting: Google’s nieuwe “AI Co-Scientist” systeem kan onderzoekers helpen bij het genereren van volledig nieuwe wetenschappelijke hypothesen en onderzoeksvoorstellen. Het maakt gebruik van meerdere gespecialiseerde AI-agenten die samenwerken in een “toernooi”-systeem om ideeën te genereren, te evalueren en te verfijnen. In tegenstelling tot bestaande systemen die alleen bestaande literatuur samenvatten, kan deze technologie echt nieuwe kennis creëren.Strategische impact: Dit markeert een fundamentele verschuiving in hoe AI wetenschappelijk onderzoek kan versnellen. Bij tests met antimicrobiële resistentie kon het systeem zelfstandig complexe hypothesen genereren die overeenkwamen met onafhankelijke laboratoriumontdekkingen. De technologie biedt potentieel voor doorbraken in geneesmiddelenontwikkeling en klimaatwetenschap, maar roept ook vragen op over wetenschappelijke integriteit en publicatiekwaliteit.

Google Research

3. DeepMind publiceert roadmap voor beveiliging en veiligheid van AGI

Bron: Google DeepMindSamenvatting: DeepMind heeft een uitgebreid 145-pagina’s tellend document gepubliceerd getiteld “An Approach to Technical AGI Safety and Security”, waarin het bedrijf zijn systematische aanpak uiteenzet voor het aanpakken van potentiële AGI (Artificial General Intelligence) risico’s. Het document gaat diep in op vier hoofdrisicogebieden: misbruik, verkeerde afstemming (misalignment), ongevallen en structurele risico’s.Strategische impact: Deze publicatie onderstreept de versnelling richting AGI – DeepMind’s CEO Demis Hassabis stelde onlangs dat AGI binnen 5-10 jaar realiteit kan worden. Het paper introduceert een gedetailleerd raamwerk voor veilige AGI-ontwikkeling, inclusief kwantificeerbare cybersecurity-evaluaties, amplified oversight, en technieken om “deceptive alignment” te voorkomen. De publicatie signaleert ook toenemende samenwerking tussen DeepMind en externe veiligheidsonderzoekers.

Google DeepMind

4. OpenAI breidt ChatGPT “Memory” functie uit naar volledige gespreksgeschiedenis

Bron: OpenAISamenvatting: OpenAI CEO Sam Altman kondigde op 10 april aan dat ChatGPT nu alle voorgaande gesprekken kan gebruiken om gepersonaliseerde antwoorden te geven. Deze uitgebreide geheugenfunctie stelt het systeem in staat om gebruikersvoorkeuren en interesses te onthouden en toe te passen op nieuwe vragen, waardoor het een meer persoonlijke assistent wordt.Strategische impact: Deze update weerspiegelt een bredere strategie richting AI-systemen die zich aanpassen aan individuele gebruikers en hun context, wat essentieel is voor het bouwen van langdurige, persoonlijke AI-relaties. Het roept echter ook vragen op over privacy, gegevensbeheer en gebruikersinzicht in hoe deze persoonlijke informatie wordt gebruikt, met name in competitie met Microsoft’s vergelijkbare Copilot-strategie.

OpenAI Community

5. AI-gestuurde cyberaanvallen door autonome agents zijn in opkomst

Bron: MIT Technology Review / Palisade ResearchSamenvatting: Geavanceerde AI-agents worden steeds bekwamer in het uitvoeren van complexe cyberaanvallen, zo blijkt uit nieuw onderzoek. Het LLM Agent Honeypot-project heeft sinds oktober 2024 twee bevestigde AI-agents geïdentificeerd die actief probeerden te hacken. Experts waarschuwen dat de meerderheid van cyberaanvallen binnen enkele jaren door AI-agents zouden kunnen worden uitgevoerd, wat de schaal en complexiteit van ransomware en andere aanvallen drastisch zal vergroten.Strategische impact: De opkomst van autonome AI-agents voor cyberaanvallen vormt een fundamentele bedreiging voor huidige beveiligingsmodellen. Deze agents kunnen zich aanpassen aan onverwachte scenario’s, verdedigingsmechanismen omzeilen, en opereren op een schaal die menselijke hackers niet kunnen bereiken. Organisaties moeten hun beveiligingsstrategie herzien en zich voorbereiden op een nieuwe golf van geavanceerde, AI-gestuurde bedreigingen.

MIT Technology Review

Insight of the Day

87% van de beveiligingsprofessionals rapporteert dat hun organisatie in het afgelopen jaar te maken heeft gehad met een AI-gestuurde cyberaanval, volgens een nieuw onderzoek van SoSafe. Deze zorgwekkende statistiek onderstreept de noodzaak voor organisaties om hun cyberbeveiligingsstrategieën te herzien in het licht van de toenemende AI-dreigingen. De combinatie van AI-gegenereerde phishing met sociale manipulatie maakt bedrijven bijzonder kwetsbaar, en verdedigingsstrategieën moeten evolueren naar meer AI-gestuurde beveiligingsmechanismen.

Forbes

DjimIT Nieuwsbrief

AI updates, praktijkcases en tool reviews — tweewekelijks, direct in uw inbox.