← Terug naar nieuwsbrief

AI-Nieuws 23 mei 2025

Nieuwsbrief

By Djimit

1. Google DeepMind CEO: “AGI binnen vijf tot tien jaar”

Bron: The New York TimesDatum: 23 mei 2025Samenvatting: In een uitgebreid interview verklaart Demis Hassabis, CEO van Google DeepMind, dat kunstmatige algemene intelligentie (AGI) naar verwachting binnen vijf tot tien jaar werkelijkheid wordt. Hij benadrukt dat de tijdlijn “ergens net na 2030” ligt, consistent met zijn oorspronkelijke 20-jaarsvisie sinds de oprichting van DeepMind in 2010. Hassabis stelt dat huidige AI-systemen nog steeds “true out-of-the-box invention” en consistentie missen – twee cruciale elementen voor echte AGI. Hij pleit voor internationale samenwerking en een nieuwe generatie veiligheidsbenchmarks voordat AGI breed wordt ingezet.Impact: De inschatting van Hassabis, die als een van de meest vooraanstaande AI-onderzoekers wordt beschouwd, versterkt de urgentie voor bedrijven en overheden om AGI-voorbereidingen te versnellen. Zijn krachtige bevestiging dat AGI binnen het decennium realiteit wordt, zal waarschijnlijk leiden tot versnelde internationale inspanningen op het gebied van AI-governance en -regulering.Bron URL: https://www.nytimes.com/2025/05/23/podcasts/google-ai-demis-hassabis-hard-fork.html

2. OpenAI’s o3-model helpt kritieke Linux-beveiligingslek identificeren

Bron: Tech MonitorDatum: 23 mei 2025Samenvatting: Een kritiek zero-day beveiligingslek (CVE-2025-37899) in de Linux-kernel is ontdekt met behulp van OpenAI’s o3-model. Het beveiligingsprobleem in de ksmbd-component (verantwoordelijk voor SMB3-netwerkbestanden) betreft een use-after-free kwetsbaarheid in de SMB ‘logoff’ commandhandler. Beveiligingsonderzoeker Sean Heelan benadrukt dat o3’s superieure redeneervaardigheden cruciaal waren bij het identificeren van deze kwetsbaarheid, die kan leiden tot willekeurige code-uitvoering met kernel-rechten. Het toont een belangrijke nieuwe toepassing van geavanceerde AI-modellen voor cybersecurity.Impact: Dit markeert een kantelpunt voor AI-assistentie bij beveiligingsonderzoek. O3’s vermogen om complexe code te analyseren en kwetsbaarheden te identificeren die menselijke auditors mogelijk missen, transformeert fundamenteel de cybersecurity-landschap. Het opent de deur voor AI als standaardtool voor beveiligingsexperts, potentieel leidend tot snellere detectie van zero-days in kritieke infrastructuur.Bron URL: https://www.techmonitor.ai/technology/cybersecurity/openai-o3-model-linux-security-threat

3. Texas introduceert baanbrekende AI-regulering met nieuwe “digitale sheriff”

Bron: The Texas TribuneDatum: 23 mei 2025Samenvatting: Texas staat op het punt om House Bill 149 aan te nemen, een uitgebreid AI-reguleringskader dat overheidsinstanties verplicht om AI-interacties bekend te maken, het gebruik van biometrische gegevens zonder toestemming verbiedt, en het ontwikkelen van AI-systemen die menselijk gedrag manipuleren tegengaat. De wetgeving schept een “AI-sandbox” voor veilige innovatie en introduceert boetes tot $100.000 voor overtreders. Een nieuwe Texas Artificial Intelligence Council zal AI-gebruik in de overheid monitoren en schadelijke praktijken identificeren. De Attorney General wordt de nieuwe “sheriff in Texas’ digital town” met brede handhavingsbevoegdheden.Impact: Als een van de meest uitgebreide staatswetten op AI-gebied, zet Texas een nationale standaard die andere staten en mogelijk federale regelgeving zal beïnvloeden. De wet balanceert innovatie met consumentenbescherming middels een ‘sandbox’-benadering die inmiddels breed geadopteerd wordt. De timing is cruciaal, aangezien een federaal wetsontwerp een 10-jarig moratorium op nieuwe staatswetten dreigt te implementeren.Bron URL: https://www.texastribune.org/2025/05/23/texas-ai-bill-legislation-regulation/

4. LogicGate’s AI Governance Solution wint prestigieuze ISACA-prijs

Bron: PR NewswireDatum: 23 mei 2025Samenvatting: LogicGate heeft de prestigieuze ISACA Innovative Solutions Award gewonnen voor haar AI Governance Solution. Het platform biedt een uitgebreid framework voor organisaties om AI-initiatieven veilig te implementeren met geïntegreerde workflows voor gebruik, risico-evaluatie, beleidsbeheer en compliance-controles. Het adresseert een kritieke kloof: recent OCEG-onderzoek toont dat hoewel 82% van de bedrijven AI moet adopteren, slechts 12% een gedocumenteerd AI-governanceplan heeft. LogicGate’s oplossing omvat gebruiksbeheer, cyber-risicobeoordelingen, beleidsbeheer, compliance-controles en AI-risico-oversight door derden.Impact: De erkenning door ISACA bevestigt de groeiende marktbehoefte aan gestandaardiseerde AI-governance frameworks. Als enterprise-adoptie van AI exponentieel toeneemt, worden gestructureerde governance-processen essentieel voor risicomanagement. LogicGate’s oplossing vertegenwoordigt een nieuwe generatie tools die de kloof tussen GRC en AI overbruggen en zo een gecontroleerde implementatie van AI-technologieën mogelijk maken.Bron URL: https://www.prnewswire.com/news-releases/logicgate-named-winner-of-the-isaca-innovative-solutions-award-for-the-organizations-ai-governance-solution-302463526.html

5. Congres roept op tot uitbreiding AI Safety Institute in strijd tegen Chinese AI-dreiging

Bron: Select Committee on the CCPDatum: 23 mei 2025Samenvatting: Het House Select Committee on the Strategic Competition Between the United States and the Chinese Communist Party heeft een brief gestuurd naar de Minister van Handel met het verzoek de rol van het U.S. AI Safety Institute (AISI) te verbreden om specifiek de Chinese AI-dreiging aan te pakken. De commissie wijst op de lancering van DeepSeek’s R1-model in januari als een “wake-up call” met nationale veiligheidsrisico’s waaronder “het doorsluizen van privégegevens van Amerikanen naar China, manipulatie van model-outputs conform Chinese wetgeving, en potentiële diefstal van Amerikaanse AI-technologie”. Ze dringen aan op benchmarking van Chinese AI-modellen ten opzichte van Amerikaanse, evaluatie van nationale veiligheidscapaciteiten en -kwetsbaarheden, en strategieën ter voorkoming van Chinese technologiediefstal.Impact: Deze oproep signaleert een significante verschuiving in de Amerikaanse benadering van AI-veiligheid, waarbij nationale veiligheidsoverwegingen en geopolitieke competitie nu centraal staan. De voorgestelde uitbreiding van het AISI zou een precedent scheppen voor het verschuiven van de focus van algemene AI-risico’s naar specifieke dreigingen van staatsgesponsorde AI-ontwikkeling en zou de technologische ‘koude oorlog’ rond AI verder kunnen intensiveren.Bron URL: https://selectcommitteeontheccp.house.gov/media/press-releases/house-china-committee-urges-commerce-department-expand-ai-safety-institutes

6. OpenAI-werknemers kunnen miljoenenaandelen niet aan goede doelen schenken

Bron: CNBCDatum: 23 mei 2025Samenvatting: OpenAI-werknemers worden gehinderd in hun pogingen om aandelen aan goede doelen te doneren, ondanks de exploderende waardering van het bedrijf naar $300 miljard. Door de ongebruikelijke aandelenstructuur van OpenAI – werknemers bezitten “profit participation units” (PPUs) die niet kunnen worden overgedragen zonder bedrijfsgoedkeuring – blijven miljoenen aan potentiële filantropische bijdragen geblokkeerd. Medewerkers die vanaf 2019 bij het bedrijf kwamen, hebben nu papieren aandelen die 30x in waarde zijn gestegen. Hoewel OpenAI in 2021 en 2022 donatiemogelijkheden bood, hebben ze recente verzoeken uitgesteld, ondanks herhaalde vragen van werknemers in Slack-threads en tijdens vergaderingen.Impact: Deze situatie illustreert de unieke governance-uitdagingen bij het balanceren van OpenAI’s non-profit oorsprong met zijn commerciële groei. De controverse kan bredere implicaties hebben voor talentwerving en -behoud in een competitieve AI-arbeidsmarkt, en vestigt aandacht op de manier waarop technische innovatie en ethische overwegingen soms botsen bij toonaangevende AI-ondernemingen.Bron URL: https://www.cnbc.com/2025/05/23/openai-employees-thwarted-in-efforts-to-donate-equity-in-ai-startup.html

Insight of the Day

Type: Trend

Inhoud: AI-governance verschuift van theoretische frameworks naar praktische implementatie en wetgeving, zoals blijkt uit de nieuwe Texas AI-wet, LogicGate’s bekroonde governance-oplossing, en de oproep tot uitbreiding van het U.S. AI Safety Institute. Deze drie ontwikkelingen van vandaag markeren een belangrijk keerpunt: terwijl AI-vooruitgang versnelt richting AGI (zoals bevestigd door Demis Hassabis), verschuiven overheden en bedrijven nu naar concrete, afdwingbare governance-structuren. De gecombineerde focus op een ‘regulatory sandbox’-aanpak wijst op een nieuwe consensus dat governance innovatie moet faciliteren terwijl het risico’s beheersbaar houdt – een middenweg die zowel technologiebedrijven als regelgevers lijken te omarmen.

DjimIT Nieuwsbrief

AI updates, praktijkcases en tool reviews — tweewekelijks, direct in uw inbox.