Zero Trust Agents: Sichere KI-Workloads mit OPA und Kubernetes
KI-Agenten entwickeln sich von passiven Chatbots zu autonomen Akteuren, die eigenständig Systemzustände ändern. Diese „Handlungsfähigkeit“ birgt Risiken wie Tool-Missbrauch und PII-Abfluss.
In diesem Vortrag präsentieren wir eine cloud-native Referenzarchitektur für Kubernetes, die agentenbasierte Workloads absichert.
Wir zeigen, wie der Open Policy Agent (OPA) via Callback-Hooks und anderen geeigneten Mechanismen eine feingranulare „Policy-as-Code“-Prüfung vor jedem Tool-Aufruf erzwingt. Zudem nutzen wir CNCF-Tools zur Echtzeit-Bereinigung sensibler Daten. Und wir skizzieren eine „Zero Trust Agent“-Architektur, die LLM-Flexibilität mit strengen Compliance-Garantien vereint.
Vorkenntnisse
- Container-Basics: Grundlegendes Verständnis von KI
- Interesse: Erste Berührungspunkte mit LLMs oder Agent-Frameworks (z. B. LangChain, ADK).
- Security-Grundlagen: Interesse an Policy-as-Code und der Absicherung moderner Workloads.
Lernziele
- Risiko-Analyse: Die spezifischen Sicherheitsgefahren autonomer KI-Agenten (Excessive Agency, PII-Leakage) verstehen.
- Policy-as-Code: OPA-basierte Leitplanken zur feingranularen Steuerung und Validierung von Tool-Aufrufen implementieren können.
- Architektur-Design: Eine praxistaugliche Referenzarchitektur zur Absicherung von Agenten-Workloads in Kubernetes-Umgebungen kennenlernen.