Die Sicherheit von KI-„Mitarbeitern“ wird oft auf die Frage von Zugriffsrechten reduziert: Wer hat unter welchen Bedingungen Zugriff auf was? In der Praxis zeigt sich jedoch, dass Zugriffskontrolle allein die größten Risiken beim Einsatz von KI nicht abdecken kann. Modelle und Agenten fungieren heute nicht nur als passive Werkzeuge, sondern als aktive Teilnehmer von Prozessen — sie kombinieren Daten aus verschiedenen Quellen, treffen Entscheidungen und führen in vielen Fällen selbstständig Aktionen aus. Sicherheit muss daher nicht nur um den Zugriff herum gestaltet werden, sondern vor allem um die Absicht (Intent) und die Nachvollziehbarkeit jedes einzelnen Schritts.