Agentic AI: Neue Risiken durch autonome KI-Bots

Von |08.05.2025|
Agentic AI: Neue Risiken durch autonome KI-Bots - Titelbild

Eigenständig agierende KI-Agenten könnten uns jede Menge Arbeit abnehmen. Sie bringen aber auch ganz neue Sicherheitsrisiken mit sich. Wir werfen einen Blick auf die Kehrseite von agentenbasierten KI-Systemen.

Was kann schon schiefgehen, wenn eine autonom agierende künstliche Intelligenz eigenständig Ziele verfolgt? Laut einem Gedankenexperiment des schwedischen Zukunftsforschers Nick Bostrom nicht weniger als der Untergang der Menschheit. Wenn eine superintelligente KI das Ziel bekommt, so viele Büroklammern wie möglich zu produzieren und sie außer Kontrolle gerät, könnte sie die Welt in ein gigantisches Netz aus Produktionsstätten verwandeln.

Superintelligente KI gehört zwar noch in den Bereich der Science Fiction, die zunehmenden Risiken durch KI-Bots sind aber längst real. So wird Agentic AI nach generativer künstlicher Intelligenz (GenAI) als nächste Evolutionsstufe von KI gehandelt. Wesentliche Merkmale sind ein höheres Level an Autonomie und ein geringerer Grad an menschlicher Aufsicht. Der AI Agent Index zeigt, wie viele solcher Systeme schon heute in Betrieb sind.

Vom Dialogpartner zum autonomen Helfer – die nächste Evolutionsstufe der KI

Bei klassischer generativer KI steht meist der Dialog mit dem Menschen im Fokus. Wir geben Fragen und Anweisungen in ein Prompt-Fenster ein und die KI antwortet entsprechend. Agentic-AI Systeme kannst du dir hingegen eher wie Staubsaugerroboter vorstellen. Sie bekommen einmal ein Ziel vorgegeben und erledigen dann bestimmte Aufgaben im Hintergrund automatisch und eigenständig.

Agentic AI lässt sich sowohl im privaten Umfeld als auch im Unternehmenskontext einsetzen:

  • Ein smarter Assistent könnte zum Beispiel Benutzerpräferenzen lernen und dann Termine planen oder die Steuerung von Smart Home-Geräten übernehmen.

  • Ein Lieferkettenmanagement-Bot könnte die Nachfrage vorhersagen, Bestände verwalten und Beschaffungsstrategien anpassen.

  • Ein virtueller Agent im Kundendienst könnte damit beauftragt sein, die Kundenzufriedenheit im Blick zu behalten – und z.B. bei einer verspäteten Lieferung proaktiv Rabatte für die nächste Bestellung anbieten.

Wie Agentic AI mit generativer KI zusammenhängt

In der Theorie sind Agentic AI-Systeme in der Lage, eigenständig zu denken, zu handeln und zu lernen. In der Praxis stecken dahinter meist sogenannte Multiagentensysteme, die auf generativen KI-Modellen aufbauen. Sie sind meist kaskadenförmig aufgesetzt und nutzen spezialisierte Sub-Agenten für bestimmte Unteraufgaben:

„Wahrnehmen“

Ein spezialisierter Recherche-Bot sammelt Informationen, die für das Erreichen des Ziels relevant sind. Durch die Anbindung von Datenbanken können auch bestimmte Unternehmensquellen eingebunden werden.

„Nachdenken“

Im zweiten Schritt werden die verfügbaren Daten analysiert. Hier kommt ein KI-Modell als Reasoning Engine zum Einsatz.

„Handeln“

Um das Ziel zu erreichen, führt das KI-System die dafür nötigen Aktionen aus. Je nach den eingerichteten Zugriffsrechten können dabei auch externe Systeme angesteuert werden.

Aus technischer Sicht bringt der aktuelle Agentic AI-Trend kaum Neuerungen. Die Innovation liegt eher darin, bestehende KI-Modelle geschickt miteinander zu verknüpfen und daraus autonome Bots zu bauen.

Kleine Fehler führen potenziell zu großen Problemen

Die Abhängigkeit der Agentensysteme von generativen KI-Modellen erklärt, warum Bots gerade so im Trend sind. Dank ihrer Sprachverständlichkeit war es noch nie so einfach, einem Bot Ziele mitzugeben. Hier beginnen aber auch die Probleme. Die KI-Modelle machen schließlich Fehler. Wenn sie ein Ziel falsch interpretieren, können völlig unbeabsichtigte Effekte die Folge sein. Selbst kleine Fehler in frühen Phasen der Verarbeitungskette können katastrophale Auswirkungen haben.

Agentic AI-Systeme sind daher mit Vorsicht zu genießen. Auch wenn der Ansatz vielversprechend ist, gibt es noch viele offene Fragen: Wer haftet bei autonomen Fehlentscheidungen? Wie sieht eine verantwortungsvolle Balance zwischen maschineller Autonomie und menschlicher Aufsicht aus? Wie kann man Kontrollverlusten vorbeugen und laufende Agenten abschalten?

Ist Agentic AI ein Fluch oder Segen für die Cybersecurity?

Für die Cybersecurity ist die aufkommende Ära autonomer KI-Bots ein zweischneidiges Schwert. Einerseits ergeben sich dadurch neue Möglichkeiten, um automatisiert Bedrohungen zu erkennen und darauf zu reagieren. Schon heute gibt es KI-basierte Abwehrsysteme, die kontinuierlich das Netzwerk überwachen, Anomalien erkennen und im Bedarfsfall Maßnahmen ergreifen. Darüber hinaus lassen sich künftig mehr und mehr Routineaufgaben automatisieren wie zum Beispiel die Untersuchung von Sicherheitswarnungen.

Auch für Cyberkriminelle ergeben sich allerdings vielfältige neue Möglichkeiten. Die weitere Automatisierung von Angriffstools kann beispielsweise helfen, Schwachstellen zu identifizieren. Im Bereich des Social Engineerings könnten KI-Bots darauf abgestellt werden, bestimmte Informationen über Personen herauszufinden. Absehbar sind auch Fortschritte im Bereich adaptiver Malware, die sich ohne menschliche Eingriffe an Verteidigungsmechanismen anpasst.

Wie Unternehmen die ersten Schritte in Richtung Agentic AI absichern können

Aufgrund des hohen Automatisierungspotenzials sind agentenbasierte KI-Systeme für viele Unternehmen attraktiv. Gerade dann, wenn schon Investitionen in Richtung generativer KI geflossen sind, versprechen sie das Potenzial, mehr aus den vorhandenen Systemen rauszuholen. Dabei spielen ein gut durchdachtes Risikomanagement und ein engmaschiges Netz aus Kontroll- und Sicherheitsmechanismen aber eine entscheidende Rolle.

So müssen für die Entwicklung und den Betrieb von KI-Agenten u.a. folgende Punkte beachtet werden:

Aktionsradius einschränken

Auf welche Datenbanken und Systeme darf das KI-System zugreifen? Welche Aktionen sind tabu oder erst nach menschlicher Bestätigung erlaubt? Grundsätzlich empfiehlt sich eine möglichst restriktive, klar dokumentierte Konfiguration von Zugriffsrechten.

Monitoring und Logging einrichten

Um das Verhalten der Agenten nachvollziehen zu können und Fehlern auf die Schliche zu kommen, sollten sie kontinuierlich überwacht werden. Ein losgekoppeltes System sollte automatisiert die Handlungen der Bots im Blick behalten.

Testumgebungen etablieren

Bevor KI-Agenten auf echte Systemumgebungen losgelassen werden, sollten sie in einer kontrollierten Umgebung ausgiebig geprüft und evaluiert werden. Dabei sollten zunächst auch keine Produktiv-, sondern Testdaten zum Einsatz kommen.

Abschaltmechanik ermöglichen

Fail-Safe-Mechanismen sind wichtig, um Kontrollverlusten vorzubeugen. Es muss immer einen „Aus-Schalter“ geben. Außerdem sollte klar definiert sein, was zum Beispiel mit verarbeiteten Daten passiert, wenn ein Agent im laufenden Prozess abgeschaltet wird.

Bei Fragen zum Thema Cybersecurity stehen unsere Experten aus unserem Cyber Security Operations Center sehr gerne zur Verfügung.


Wir beantworten gerne alle Fragen.

Kontaktiere uns über das untenstehende Formular oder auch unter +43 5 9555
und office@techbold.at. Unsere vollständigen Adressdaten findest du hier

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Evelyn Heinrich / Head of Account Management

Evelyn Heinrich

Head of Account Management

oder ein Account Manager aus ihrem Team melden sich umgehend.