Agentic AI: Neue Risiken durch autonome KI-Bots

Eigenständig agierende KI-Agenten könnten uns jede Menge Arbeit abnehmen. Sie bringen aber auch ganz neue Sicherheitsrisiken mit sich. Wir werfen einen Blick auf die Kehrseite von agentenbasierten KI-Systemen.
Was kann schon schiefgehen, wenn eine autonom agierende künstliche Intelligenz eigenständig Ziele verfolgt? Laut einem Gedankenexperiment des schwedischen Zukunftsforschers Nick Bostrom nicht weniger als der Untergang der Menschheit. Wenn eine superintelligente KI das Ziel bekommt, so viele Büroklammern wie möglich zu produzieren und sie außer Kontrolle gerät, könnte sie die Welt in ein gigantisches Netz aus Produktionsstätten verwandeln.
Superintelligente KI gehört zwar noch in den Bereich der Science Fiction, die zunehmenden Risiken durch KI-Bots sind aber längst real. So wird Agentic AI nach generativer künstlicher Intelligenz (GenAI) als nächste Evolutionsstufe von KI gehandelt. Wesentliche Merkmale sind ein höheres Level an Autonomie und ein geringerer Grad an menschlicher Aufsicht. Der AI Agent Index zeigt, wie viele solcher Systeme schon heute in Betrieb sind.
Vom Dialogpartner zum autonomen Helfer – die nächste Evolutionsstufe der KI
Bei klassischer generativer KI steht meist der Dialog mit dem Menschen im Fokus. Wir geben Fragen und Anweisungen in ein Prompt-Fenster ein und die KI antwortet entsprechend. Agentic-AI Systeme kannst du dir hingegen eher wie Staubsaugerroboter vorstellen. Sie bekommen einmal ein Ziel vorgegeben und erledigen dann bestimmte Aufgaben im Hintergrund automatisch und eigenständig.
Agentic AI lässt sich sowohl im privaten Umfeld als auch im Unternehmenskontext einsetzen:
Wie Agentic AI mit generativer KI zusammenhängt
In der Theorie sind Agentic AI-Systeme in der Lage, eigenständig zu denken, zu handeln und zu lernen. In der Praxis stecken dahinter meist sogenannte Multiagentensysteme, die auf generativen KI-Modellen aufbauen. Sie sind meist kaskadenförmig aufgesetzt und nutzen spezialisierte Sub-Agenten für bestimmte Unteraufgaben:
„Wahrnehmen“
Ein spezialisierter Recherche-Bot sammelt Informationen, die für das Erreichen des Ziels relevant sind. Durch die Anbindung von Datenbanken können auch bestimmte Unternehmensquellen eingebunden werden.
„Nachdenken“
Im zweiten Schritt werden die verfügbaren Daten analysiert. Hier kommt ein KI-Modell als Reasoning Engine zum Einsatz.
„Handeln“
Um das Ziel zu erreichen, führt das KI-System die dafür nötigen Aktionen aus. Je nach den eingerichteten Zugriffsrechten können dabei auch externe Systeme angesteuert werden.
Aus technischer Sicht bringt der aktuelle Agentic AI-Trend kaum Neuerungen. Die Innovation liegt eher darin, bestehende KI-Modelle geschickt miteinander zu verknüpfen und daraus autonome Bots zu bauen.
Kleine Fehler führen potenziell zu großen Problemen
Die Abhängigkeit der Agentensysteme von generativen KI-Modellen erklärt, warum Bots gerade so im Trend sind. Dank ihrer Sprachverständlichkeit war es noch nie so einfach, einem Bot Ziele mitzugeben. Hier beginnen aber auch die Probleme. Die KI-Modelle machen schließlich Fehler. Wenn sie ein Ziel falsch interpretieren, können völlig unbeabsichtigte Effekte die Folge sein. Selbst kleine Fehler in frühen Phasen der Verarbeitungskette können katastrophale Auswirkungen haben.
Agentic AI-Systeme sind daher mit Vorsicht zu genießen. Auch wenn der Ansatz vielversprechend ist, gibt es noch viele offene Fragen: Wer haftet bei autonomen Fehlentscheidungen? Wie sieht eine verantwortungsvolle Balance zwischen maschineller Autonomie und menschlicher Aufsicht aus? Wie kann man Kontrollverlusten vorbeugen und laufende Agenten abschalten?
Ist Agentic AI ein Fluch oder Segen für die Cybersecurity?
Für die Cybersecurity ist die aufkommende Ära autonomer KI-Bots ein zweischneidiges Schwert. Einerseits ergeben sich dadurch neue Möglichkeiten, um automatisiert Bedrohungen zu erkennen und darauf zu reagieren. Schon heute gibt es KI-basierte Abwehrsysteme, die kontinuierlich das Netzwerk überwachen, Anomalien erkennen und im Bedarfsfall Maßnahmen ergreifen. Darüber hinaus lassen sich künftig mehr und mehr Routineaufgaben automatisieren wie zum Beispiel die Untersuchung von Sicherheitswarnungen.
Auch für Cyberkriminelle ergeben sich allerdings vielfältige neue Möglichkeiten. Die weitere Automatisierung von Angriffstools kann beispielsweise helfen, Schwachstellen zu identifizieren. Im Bereich des Social Engineerings könnten KI-Bots darauf abgestellt werden, bestimmte Informationen über Personen herauszufinden. Absehbar sind auch Fortschritte im Bereich adaptiver Malware, die sich ohne menschliche Eingriffe an Verteidigungsmechanismen anpasst.
Wie Unternehmen die ersten Schritte in Richtung Agentic AI absichern können
Aufgrund des hohen Automatisierungspotenzials sind agentenbasierte KI-Systeme für viele Unternehmen attraktiv. Gerade dann, wenn schon Investitionen in Richtung generativer KI geflossen sind, versprechen sie das Potenzial, mehr aus den vorhandenen Systemen rauszuholen. Dabei spielen ein gut durchdachtes Risikomanagement und ein engmaschiges Netz aus Kontroll- und Sicherheitsmechanismen aber eine entscheidende Rolle.
So müssen für die Entwicklung und den Betrieb von KI-Agenten u.a. folgende Punkte beachtet werden:
Aktionsradius einschränken
Auf welche Datenbanken und Systeme darf das KI-System zugreifen? Welche Aktionen sind tabu oder erst nach menschlicher Bestätigung erlaubt? Grundsätzlich empfiehlt sich eine möglichst restriktive, klar dokumentierte Konfiguration von Zugriffsrechten.
Monitoring und Logging einrichten
Um das Verhalten der Agenten nachvollziehen zu können und Fehlern auf die Schliche zu kommen, sollten sie kontinuierlich überwacht werden. Ein losgekoppeltes System sollte automatisiert die Handlungen der Bots im Blick behalten.
Testumgebungen etablieren
Bevor KI-Agenten auf echte Systemumgebungen losgelassen werden, sollten sie in einer kontrollierten Umgebung ausgiebig geprüft und evaluiert werden. Dabei sollten zunächst auch keine Produktiv-, sondern Testdaten zum Einsatz kommen.
Abschaltmechanik ermöglichen
Fail-Safe-Mechanismen sind wichtig, um Kontrollverlusten vorzubeugen. Es muss immer einen „Aus-Schalter“ geben. Außerdem sollte klar definiert sein, was zum Beispiel mit verarbeiteten Daten passiert, wenn ein Agent im laufenden Prozess abgeschaltet wird.
Bei Fragen zum Thema Cybersecurity stehen unsere Experten aus unserem Cyber Security Operations Center sehr gerne zur Verfügung.
Wir beantworten gerne alle Fragen.
Kontaktiere uns über das untenstehende Formular oder auch unter +43 5 9555
und office@techbold.at. Unsere vollständigen Adressdaten findest du hier
Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenEvelyn Heinrich
Head of Account Management
oder ein Account Manager aus ihrem Team melden sich umgehend.