← Terug naar nieuwsbrief

AI & Security Nieuws – 14 Januari 2026

Nieuwsbrief

By Djimit* een overzicht voor AI cloud- en security professionals*

Hoofdtrend: AI verschuift vandaag tegelijk op drie assen, compute-schaal (inference als bottleneck), personalisatie (directe koppeling met privédata in consumenten-assistenten), en versnelling van open source model-ecosystemen (incl. geopolitiek relevante chip-onafhankelijkheid).

1) OpenAI sluit meerjarige inference-deal met Cerebras, tot 750MW capaciteit

Bron: OpenAI (primair) + Cerebras (primair) + Reuters (validatie) 

Samenvatting: OpenAI integreert tot 750 megawatt “ultra low-latency” compute van Cerebras om responstijd te verlagen voor zware taken, inclusief agent-achtige workloads. Uitrol in fases, start in 2026 en doorlopend tot en met 2028. Reuters meldt (op basis van een bron) dat de dealwaarde boven $10B ligt. 

Impact:

2) Google introduceert “Personal Intelligence”, Gemini koppelt met Gmail, Photos, YouTube, Search

Bron: Google Blog (primair) 

Samenvatting: Google rolt “Personal Intelligence” uit als opt-in personalisatie voor Gemini, waarbij de assistant informatie uit gekoppelde Google-apps kan gebruiken. Google positioneert het als privacy-first: uitgeschakeld standaard, controle over welke apps gekoppeld zijn, en claims dat Gemini niet “direct” traint op inbox of fotobibliotheek. (Uitrol start als beta in de VS voor specifieke abonnementsniveaus.) 

Impact:

3) Z.ai publiceert GLM-Image, open source “industrial-grade” image generation met hybride AR + diffusion

Bron: Z.ai blog (primair) + VentureBeat (validatie) + SCMP (context over Huawei-stack) 

Samenvatting: Z.ai brengt GLM-Image uit als open source model voor text-to-image en image-to-image, met nadruk op tekst-rendering en “knowledge-dense” visuals, via een hybride architectuur (autoregressief plus diffusion decoder). VentureBeat bespreekt de benchmark-claims versus Google’s Nano Banana Pro. SCMP plaatst het in de context van training op een Huawei-stack en chip-onafhankelijkheid. 

Impact:

4) SLAM-LLM (arXiv), open source framework voor multimodale LLMs gericht op speech, audio en muziek

Bron: arXiv (wetenschappelijk platform, primair) 

Samenvatting: SLAM-LLM publiceert een modulaire open source training/inference stack voor speech- en audio-georiënteerde multimodale modellen (ASR, audio captioning, music captioning), inclusief recipes en checkpoints. 

Impact:

5) A³-Bench (arXiv), benchmark voor “memory-driven” wetenschappelijke redenatie

Bron: arXiv (wetenschappelijk platform, primair) 

Samenvatting: A³-Bench introduceert een benchmark om wetenschappelijke redenatie te testen op activatie en hergebruik van voorkennis (“anchors/attractors”), inclusief dataset (2.198 problemen) en een meetindex (AAUI) voor geheugen-activatie. 

Impact:

6) MM-BRIGHT (arXiv), multimodale benchmark voor reasoning-intensive retrieval

Bron: arXiv (wetenschappelijk platform, primair) 

Samenvatting: MM-BRIGHT publiceert een benchmark voor retrieval waar queries multimodaal zijn (diagrammen, charts, screenshots) en redeneren nodig is, met 2.803 real-world queries over 29 technische domeinen en meerdere taakniveaus. Resultaten tonen dat huidige modellen (incl. BM25 en multimodale modellen) zwak presteren op deze categorie. 

Impact:

Insight of the Day

Datapunt: “750MW” is geen infra-footnote maar een signaal dat realtime inference-capaciteit een strategische schaarste wordt, vooral als agents meer iteratieve tool-calls en langere interacties veroorzaken. 

DjimIT Nieuwsbrief

AI updates, praktijkcases en tool reviews — tweewekelijks, direct in uw inbox.