AI-Nieuws 10 mei 2025
NieuwsbriefBy Djimi
1. Google lanceert “AI Co-Scientist”: Doorbraak in wetenschappelijk onderzoek
Bron: Google Research Blog & arXiv paper (19 februari 2025)
Samenvatting: Google heeft een multi-agent AI-systeem gelanceerd, gebouwd op Gemini 2.0, dat wetenschappers helpt bij het genereren van nieuwe hypothesen en onderzoeksvoorstellen. Het systeem gebruikt gespecialiseerde agents (Generation, Reflection, Ranking, Evolution, Proximity en Meta-review) om iteratief ideeën te ontwikkelen en te verfijnen.
Impact: De “AI Co-Scientist” heeft zijn waarde al bewezen bij drie biomedische toepassingen: herbestemming van geneesmiddelen voor acute myeloïde leukemie, ontdekking van doelwitten voor leverfibrose, en het verklaren van mechanismen van antimicrobiële resistentie. Laboratoriumexperimenten bevestigden dat de door AI gegenereerde hypothesen valide waren.
Strategische implicatie: Dit markeert een paradigmaverschuiving in wetenschappelijk onderzoek, waar AI niet alleen bestaande kennis synthetiseert maar ook nieuwe, testbare hypothesen genereert die experts mogelijk niet zouden overwegen. Google biedt toegang tot onderzoeksinstellingen via een Trusted Tester Program, wat duidt op een voorzichtige maar gerichte uitrol.Google Research Blog
2. Trump-administratie wijzigt globale AI-chipexportbeperkingen
Bron: Reuters (7 mei 2025)
Samenvatting: De Trump-administratie heeft aangekondigd dat ze de recente regel van Biden voor AI-chipexport zal intrekken en vervangen. De Biden-regeling, die op 15 mei in werking zou treden, verdeelde de wereld in drie niveaus met exportbeperkingen voor geavanceerde AI-chips. De Trump-administratie noemt deze aanpak “te complex en bureaucratisch”.
Impact: De nieuwe benadering zal waarschijnlijk afstappen van het drie-lagen systeem en in plaats daarvan een wereldwijd licentieregime instellen met regering-tot-regering overeenkomsten. Dit zou met name kunnen leiden tot meer export van geavanceerde Nvidia-chips.
Strategische implicatie: Deze beleidswijziging weerspiegelt een fundamentele verschuiving in de Amerikaanse aanpak van AI-technologiebeheersing – van brede geografische beperkingen naar meer bilaterale controles. Dit heeft grote implicaties voor de wereldwijde AI-concurrentie en de verdere verspreiding van geavanceerde AI-capaciteiten.Reuters
3. EU AI Act: Belangrijke mijlpalen in 2025 voor regelgeving
Bron: Europese Commissie (mei 2025)
Samenvatting: De EU AI Act, het eerste uitgebreide wettelijke kader voor AI ter wereld, heeft belangrijke implementatiemijlpalen bereikt. Na inwerkingtreding op 1 augustus 2024, zijn de eerste verboden (op schadelijke AI-toepassingen) reeds van kracht sinds 2 februari 2025. De volgende belangrijke deadline is 2 augustus 2025, wanneer de regels voor general-purpose AI-modellen (GPAI) en governancestructuren van kracht worden.
Impact: De Europese AI Office heeft in april 2025 conceptrichtlijnen voor GPAI-modellen gepubliceerd, en de derde conceptversie van een Code of Practice is in maart 2025 verschenen. Aanbieders die deze gedragscode onderschrijven, kunnen rekenen op een gestroomlijnde handhavingsaanpak.
Strategische implicatie: Europa positioneert zich als mondiale normsteller voor verantwoorde AI, met duidelijke risiconiveaus en bijbehorende verplichtingen. Bedrijven met GPAI-systemen hebben tot augustus 2025 om aan de nieuwe compliance-eisen te voldoen, wat grote invloed heeft op hun ontwikkelingsstrategieën.European Commission
4. Nieuw onderzoek waarschuwt voor “existentiële bedreiging” van superintelligente AI
Bron: The Guardian & arXiv (10 mei 2025)
Samenvatting: Professor Max Tegmark (MIT) en collega’s hebben bedrijven die aan superintelligente AI werken opgeroepen tot het berekenen van een “Compton-constante” – de waarschijnlijkheid dat een geavanceerde AI aan menselijke controle ontsnapt. Hun eigen berekeningen suggereren een alarmerende 90% kans dat een superintelligente AI een existentiële bedreiging zou vormen.
Impact: Het team vergelijkt de huidige AI-race met de eerste nucleaire test (Trinity) in 1945, waarbij wetenschappers eerst de risico’s berekenden voordat ze verder gingen. Tegmark pleit voor een vergelijkbare rigoureuze risicoberekening voordat bedrijven zeer geavanceerde AI-systemen ontwikkelen.
Strategische implicatie: Deze oproep komt op een cruciaal moment waarin het “Singapore Consensus on Global AI Safety Research Priorities” rapport, door experts van grote AI-bedrijven en academici, drie kritieke onderzoeksgebieden voor AI-veiligheid identificeert. Dit signaleert een hernieuwde focus op internationale samenwerking voor veilige AI-ontwikkeling.The Guardian
5. AI-gegenereerd slachtoffer “spreekt” tegen moordenaar in rechtszaak
Bron: Reuters (9 mei 2025)
Samenvatting: In een opvallende rechtszaak in Arizona heeft de familie van een vermoord verkeersslachtoffer een door AI-gegenereerde video laten zien waarin het slachtoffer “spreekt” tot zijn moordenaar tijdens de strafzitting. Christopher Pelkey, een 37-jarige legerverteraan die in 2021 werd doodgeschoten, werd via AI gesimuleerd om een verklaring af te leggen.
Impact: Deze toepassing van AI in een rechtszaal roept belangrijke ethische vragen op. De familie gebruikte de technologie om het slachtoffer te “humaniseren”, maar juridische experts waarschuwen dat dergelijke emotioneel krachtige simulaties rechtszaken kunnen beïnvloeden op manieren die verder gaan dan geverifieerd bewijsmateriaal.
Strategische implicatie: Dit markeert een nieuwe grens in de toepassing van generatieve AI binnen het rechtssysteem, waarbij emotioneel krachtige technologie traditionele bewijsregels tart. Dit vereist nieuwe wettelijke kaders om de integriteit van gerechtelijke procedures te waarborgen terwijl technologische innovatie doorgaat.Reuters
Insight of the Day
“De holistische benadering van veilige AI”: De recent gepubliceerde “Singapore Consensus on Global AI Safety Research Priorities” vormt een opmerkelijk tegenwicht tegen de meer deregulerende houding van de Trump-administratie ten opzichte van AI-chips en -technologie. Met deelname van experts van OpenAI, Google DeepMind en academische leiders, suggereert dit dat de AI-industrie zelf een zelfregulerend kader ontwikkelt terwijl formele regelgeving blijft evolueren in verschillende snelheden wereldwijd.
Dit overzicht is samengesteld op 10 mei 2025 en bevat de ameest actuele informatie die beschikbaar was op het moment van publicatie. Alle vermelde bronnen zijn toegankelijk via de bijgevoegde hyperlinks.
DjimIT Nieuwsbrief
AI updates, praktijkcases en tool reviews — tweewekelijks, direct in uw inbox.