Bereits am 11. Mai findet der Online-Deep-Dive KI und Security statt.

KI-Systeme absichern – Sicherheitsarchitekturen für Agents und LLMs

Von Chatbots bis zu autonomen Agenten – KI-Systeme sind mittlerweile überall zu finden. Doch mit ihrer Verbreitung wächst die Angriffsfläche. Prompt Injection, Model Poisoning und kompromittierte Agents sind reale Bedrohungen.

In diesem Vortrag analysieren wir reale Sicherheitsvorfälle und leiten aus diesen, zusammen mit Frameworks wie OWASP Top 10 for LLM oder MITRE ATLAS, konkrete Bedrohungen und Sicherheitsarchitekturen ab. Dabei gehen wir auch auf die unterschiedlichen Anforderungen von RAG, Agent-to-Agent-Kommunikation und MCP ein. Wir zeigen bewährte Patterns und Gegenmaßnahmen und bewerten deren Tauglichkeit und Nutzbarkeit für moderne KI-Anwendungen.

Vorkenntnisse

Dieser Vortrag richtet sich an Softwareentwickler:innen und Systemarchitekt:innen, die KI-Systeme entwickeln oder integrieren.
Grundkenntnisse über LLMs und deren Funktionsweise sowie Vertrautheit mit allgemeinen Security-Konzepten wie Threat Modeling und Defense-in-Depth sind hilfreich.

Lernziele

Nach dem Vortrag wissen die Teilnehmenden:
- wie Threat Models und Frameworks wie OWASP Top 10 for LLM und MITRE ATLAS zur Ableitung konkreter Sicherheitsmaßnahmen genutzt werden können
- welche spezifischen Risiken und Angriffsvektoren bei KI-Systemen existieren
- wie sichere Architekturen für KI-Systeme konzipiert werden

Speaker

 

Sebastian Leuer
Sebastian Leuer Sebastian Leuer ist seit 2019 am Fraunhofer IEM tätig und beschäftigt sich mit Weiterbildungen und künstlicher Intelligenz im Themenbereich der sicheren Softwareentwicklung. Als Senior Expert verantwortet er die Konzipierung zielgruppenorientierter Schulungen im Rahmen des zertifizierten Security Champion Trainings und ist zentraler Ansprechpartner für sichere Softwareentwicklungsprozesse.