/Security for AI/
Breaking the Bot: Live-Hacking von LLMs, Agenten und MCP
Seit der breiten Einführung von ChatGPT Ende 2022 hat sich der Einsatz großer Sprachmodelle (LLMs) von ersten Experimenten hin zu produktiven Geschäftsanwendungen entwickelt. Insbesondere agentenbasierte Architekturen und Ökosysteme wie das Model Context Protocol (MCP) ermöglichen es, LLMs tief in bestehende Prozesse und Systeme einzubetten – und eröffnen damit neue, sehr konkrete Angriffsflächen.
Der Vortrag knüpft an eine grundsätzliche Einführung in LLM-Sicherheitsrisiken an, legt den Schwerpunkt jedoch auf praktische Angriffe auf Agenten- und MCP-Szenarien. Ausgehend von einer systematischen Übersicht typischer Schwachstellen zeigen wir anhand einer Demo-Anwendung u.a., wie Prompt Injection, Data Poisoning und System Prompt Leakage in Kombination mit Agenten, Tools und MCP-Backends ausgenutzt werden können. Dabei demonstrieren wir exemplarisch Angriffe, die über LLMs auf angebundene Systeme, APIs oder Datenquellen durchschlagen.
Neben der Vorstellung konkreter Verwundbarkeiten werden passende Gegenmaßnahmen für agentenbasierte LLM-Architekturen diskutiert - von Eingabe-Validierung und Policy-Controls über Architektur-Patterns bis hin zu Best Practices für den sicheren Einsatz von MCP in Unternehmensumgebungen.
Abschließend fassen wir praxisorientierte Empfehlungen zusammen, wie Organisationen LLMs und Agenten-Landschaften sicher in geschäftskritische Anwendungen integrieren können.
Lernziele
- Die Teilnehmenden verstehen, welche spezifischen Schwachstellen beim Einsatz von agentenbasierten LLM-Systemen und MCP-Integrationen zu beachten sind.
- Sie sehen anhand konkreter Beispiele, wie Angriffe auf LLM-Agenten, Tools und angebundene Systeme praktisch funktionieren und welche Risiken daraus für Unternehmensanwendungen entstehen.
- Sie erfahren außerdem, welche Gegenmaßnahmen passend sind und wie diese technisch umgesetzt werden können.