Prompt Injection ist nur der Anfang: Das AI-Security-Modell für 2026
Ein LLM ist kein "Feature", sondern ein System – mit Datenflüssen, Tools, APIs und neuen Angriffspfaden. Prompt Injection, Model Poisoning und RAG-Leaks treffen nicht nur die Technik, sondern Prozesse, Reputation und Compliance. Dieser Vortrag zeigt, wie Sie AI-Security nicht nur technisch umsetzen sondern auch für Audit und Management nachweisbar machen.
Sie nehmen mit:
- Komponenten-Check: Controls für Model, API, Inferenz-Pipeline, RAG, Datenströme und Integrationen – mit Audit-Kriterien.
- Angriffslogik: typische Attack Paths und an welchen Stellen Sie Security "einschleifen" müssen.
- Hardening-Quick-Wins mit Nachweisführung: Input/Output-Filter, Least-Privilege für Tools/APIs, Logging & Monitoring für KI-Workloads
… und wie Sie das auditieren. Wenn Ihre KI demnächst handeln darf, sollten Sie Sicherheit und Nachweisbarkeit von Anfang an einplanen.
Lernziele
- Teilnehmende können die typischen Angriffsklassen (Prompt Injection, Poisoning, adversarial) den Systemkomponenten zuordnen und für jede Komponente Audit-Kriterien definieren.
- Teilnehmende können eine Komponenten-Checkliste für AI-Security (Model, API, RAG, Pipeline, Datenflüsse) mit Nachweisführung anwenden.
- Teilnehmende können priorisierte
Hardening- Maßnahmen (Least Privilege, Filter, Monitoring/Logging) mit messbaren KPIs und Audit-Trails für KI-Workloads ableiten.