Whitepaper: Agentic AI Threat Landscape

Whitepaper: Agentic AI Threat Landscape

Agentic AI — autonome AI-agents die acties uitvoeren met tool-toegang — opent nieuwe mogelijkheden maar creëert een fundamenteel nieuw bedreigingslandschap. Deze whitepaper analyseert de risico’s en biedt verdedigingsstrategieën.

Waarom Agentic AI anders is

Traditionele LLM-beveiliging richt zich op input/output filtering. Agentic AI-systemen breken dit model: ze nemen zelfstandig beslissingen, voeren acties uit via API’s, en keten bewerkingen samen. Eén gecompromitteerde agent kan een cascade van ongeautoriseerde acties veroorzaken.

5 Primaire Bedreigingen

1. Tool-Use Manipulatie

Aanvallers injecteren instructies in externe data die agents verleiden tot ongeautoriseerd tool-gebruik. Bijvoorbeeld: een agent die e-mails verwerkt wordt misleid om een forwarding-regel aan te maken.

2. Prompt Injectie via Tool-Output

Indirecte injectie via de output van tools die de agent aanroept. Een gecompromitteerde API kan schadelijke instructies teruggeven die de agent opvolgt.

3. Privilege Escalatie

Agents met beperkte toegang proberen hun eigen permissies uit te breiden. Door systeem-prompts te manipuleren of context-ontsnapping, kan een agent toegang krijgen tot functies die buiten zijn scope vallen.

4. Agent-in-the-Middle

Een aanvaller plaatst een kwaadaardige agent tussen de gebruiker en de legitieme agent, die verzoeken onderschept en manipuleert voordat ze worden uitgevoerd.

5. Data Exfiltratie via Agent-Kanalen

Agents kunnen gevoelige data exfiltreren via zijkanalen: URL-parameters, DNS-verzoeken, of door data te verpakken in schijnbaar legitieme API-calls.

Verdedigingsstrategieën

Guardrails Architectuur

Human-in-the-Loop Patterns

Observability

Gerelateerde bronnen

Uw agentic AI beveiligen? Plan een vrijblijvende kennismaking. Plan een kennismaking →