Whitepaper: Agentic AI Threat Landscape
Whitepaper: Agentic AI Threat Landscape
Agentic AI — autonome AI-agents die acties uitvoeren met tool-toegang — opent nieuwe mogelijkheden maar creëert een fundamenteel nieuw bedreigingslandschap. Deze whitepaper analyseert de risico’s en biedt verdedigingsstrategieën.
Waarom Agentic AI anders is
Traditionele LLM-beveiliging richt zich op input/output filtering. Agentic AI-systemen breken dit model: ze nemen zelfstandig beslissingen, voeren acties uit via API’s, en keten bewerkingen samen. Eén gecompromitteerde agent kan een cascade van ongeautoriseerde acties veroorzaken.
5 Primaire Bedreigingen
1. Tool-Use Manipulatie
Aanvallers injecteren instructies in externe data die agents verleiden tot ongeautoriseerd tool-gebruik. Bijvoorbeeld: een agent die e-mails verwerkt wordt misleid om een forwarding-regel aan te maken.
2. Prompt Injectie via Tool-Output
Indirecte injectie via de output van tools die de agent aanroept. Een gecompromitteerde API kan schadelijke instructies teruggeven die de agent opvolgt.
3. Privilege Escalatie
Agents met beperkte toegang proberen hun eigen permissies uit te breiden. Door systeem-prompts te manipuleren of context-ontsnapping, kan een agent toegang krijgen tot functies die buiten zijn scope vallen.
4. Agent-in-the-Middle
Een aanvaller plaatst een kwaadaardige agent tussen de gebruiker en de legitieme agent, die verzoeken onderschept en manipuleert voordat ze worden uitgevoerd.
5. Data Exfiltratie via Agent-Kanalen
Agents kunnen gevoelige data exfiltreren via zijkanalen: URL-parameters, DNS-verzoeken, of door data te verpakken in schijnbaar legitieme API-calls.
Verdedigingsstrategieën
Guardrails Architectuur
- Input guardrails — Valideer alle input voordat het de agent bereikt
- Output guardrails — Inspecteer alle acties voordat uitvoering
- Tool guardrails — Beperk tool-toegang tot het strikt noodzakelijke (least privilege)
- Agent guardrails — Maximum aantal acties per sessie, timeout, en scope-bewaking
Human-in-the-Loop Patterns
- Goedkeuring vereist voor acties met impact boven een drempelwaarde
- Regelmatige checkpoint-validatie door menselijke operators
- Automatische pauze bij afwijking van verwacht gedrag
Observability
- Volledige audit trail van alle agent-beslissingen en acties
- Real-time anomaliedetectie op agent-gedrag
- Agent-activity dashboards met anomaly scoring
Gerelateerde bronnen
- AI Security pillar pagina — Alle artikelen en inzichten
- LLM Security Framework whitepaper — Basis-framework
- Online cursus LLM Security — Inclusief agentic AI module
- Agentic AI Risk Assessment template — Direct inzetbaar
Uw agentic AI beveiligen? Plan een vrijblijvende kennismaking. Plan een kennismaking →