Kampf der Algorithmen: Wie sich Cyber-Angriffe und ihre Abwehr durch KI verändern

Wie sich Cyber-Angriffe und ihre Abwehr durch KI verändern - Titelbild

Künstliche Intelligenz (KI) ist für Cyberkriminelle ein willkommenes Werkzeug. Sie ermöglicht Angriffe in einer neuen Dimension, in viel höherer Geschwindigkeit und in einem noch nie dagewesenen Umfang. Um die neuartigen Angriffe abzuwehren, setzt auch die Cyber-Verteidigung vermehrt auf die Technologie. Ein Kampf der Algorithmen ist entbrannt, der die Praxis der IT-Sicherheit deutlich verändert.

„The most profound technologies are those that disappear“ – Mit diesen Worten beginnt der US-amerikanische Informatiker Mark Weiser Ende der 1990er einen vielbeachteten Aufsatz über den Computer des 21. Jahrhunderts. Genau dieses Phänomen beobachten wir aktuell bei Künstlicher Intelligenz. Sie ist jetzt schon so stark in unserem Alltag verankert, dass wir sie teils gar nicht mehr als Künstliche Intelligenz wahrnehmen.

So steckt die Technologie in Sprachassistenten wie Alexa, Siri und Cortana sowie in Übersetzungstools und Fahrassistenzsystemen. Sie generiert die Feeds, die du in sozialen Medien siehst und macht dir in Streaming-Diensten Vorschläge, welche Musik, Filme und Serien dir gefallen könnten.

Die zunehmende Verbreitung von KI-Systemen, die immer mehr Bereiche unseres Alltags durchdringen, macht sie einerseits selbst zum Ziel von Cyber-Attacken. Andererseits setzen Cyberkriminelle Künstliche Intelligenz immer selbstverständlicher als Werkzeug ein, um bestehende Angriffsformen zu verbessern und neue Betrugsformen zu entwickeln.

KI-Systeme werden lukrative Angriffsziele

Wer heute erfolgreich ein KI-System hackt, kann stark davon profitieren. Dabei nehmen die Angreifer je nach Zielsystem unterschiedliche Dinge in den Fokus, um sich zu bereichern. Eines davon sind die Daten, die solche Systeme verarbeiten. Wenn es zum Beispiel gelingt, einen KI-gestützten Chatbot im Kundenservice zu kompromittieren, könnten die Verbrecher womöglich persönliche Daten stehlen und sie auf den Marktplätzen der Untergrund-Ökonomie verkaufen.

Eine weitere Gefahr liegt in der Manipulation von KI-Systemen. Je intensiver KI zur Entscheidungsfindung herangezogen wird, umso gefährlicher werden gezielte Beeinflussungen. Wenn du dir vorstellst, dass zum Beispiel Richter, Polizisten und Ärzte zunehmend von KI-Empfehlungen geleitet werden, kannst du das Ausmaß der Gefahren von Manipulationen erahnen.

Um KI-Systeme angemessen zu schützen, sind deshalb technische und organisatorische Maßnahmen nötig. Zu letzteren gehört zum Beispiel die präventive Bereitstellung eines Notfallplans, um bei einem Vorfall schnell reagieren zu können und den Schaden zu begrenzen.

Angriffe mit KI-Unterstützung nehmen zu

Nahezu jeder bedeutende Fortschritt im Bereich der Künstlichen Intelligenz erweitert auch das Arsenal der Cyberkriminellen. Mit dem aktuellen Siegeszug generativer KI-Systeme haben sich die Möglichkeiten noch mal massiv erweitert. KI kann jetzt auch überzeugende Texte schreiben, alle nur denkbaren Fragen beantworten und atemberaubende Bilder auf Basis einer einfachen Texteingabe erstellen. Hier sind ein paar Beispiele, wie KI schon heute Cyberangriffe unterstützt:

  • Generative KI-Systeme bringen das Social Engineering – sprich: Verfahren, mit denen Angreifer ihre Opfer manipulieren und täuschen – auf ein völlig neues Level. Auf Knopfdruck lassen sich grammatikalisch korrekte und authentisch wirkende E-Mails generieren. Angreifer können damit sehr individuelle Phishing-Mails erzeugen und ihre Opfer noch besser dazu bewegen, auf gefährliche Links zu klicken.
  • Mit Hilfe von Deepfake-Technologie reichen wenige Sekunden an Audio- und Videomaterial aus, um Stimmen zu kapern und Personen scheinbar Dinge sagen zu lassen, die sie in Wahrheit nie gesagt haben. Cyberkriminelle nutzen diese Möglichkeiten zum Beispiel beim „Enkeltrick“ oder dem „CEO-Fraud“, bei dem sich Betrüger für Vorgesetzte ausgeben und Mitarbeiter zu Überweisungen hoher Summen auf ihre Konten verleiten.
  • Auch Machine Learning kommt im Cyber-Untergrund massiv zum Einsatz. Das Verfahren wird einerseits benutzt, um Schadprogramme zu verbessern. Andererseits kommen spezielle Machine Learning-Modelle zum Einsatz, um Sicherheitslücken oder Schwachstellen in Anwendungen und Netzwerken aufzuspüren.

Die Verteidigung rüstet auf – mit defensiver KI

Mit Unterstützung von KI-Tools auf der Angriffsseite erhöht sich die Zahl und die Qualität der Cyber-Attacken drastisch. Menschliche Reaktionen können schlichtweg nicht mehr mithalten. Zudem bleiben viele der Angriffe unter dem Radar konventioneller, Regel-basierter Detektionssysteme. Immer mehr Organisationen bauen deshalb eine KI-Abwehr auf, um sich vor KI-Angriffen effektiv zu schützen.
Mittlerweile gibt es in fast jedem Bereich, in dem KI für die Cyber-Offensive eingesetzt wird, einen Gegenpart für die Defensive:

  • KI-getriebene Malware-Detektionssysteme analysieren große Datenmengen wie Netzwerk-Traffic, Benutzerverhalten und Logdateien, um Anomalien zu entdecken, die auf einen Cyber-Angriff hindeuten.
  • Moderne Antiviren-Software und Spamfilter nutzen KI, um Schadsoftware und Phishing-Mails effektiver zu erkennen und abzuwehren.
  • Software für das Unified Endpoint Management (UEM), die sämtliche IT-Geräte einer Organisation verwaltet, setzt auf KI, um Update-Prozesse zu optimieren und ungewöhnliches Verhalten von Anwendungen aufzudecken.
  • Deepfake Detection Software kann erkennen, ob es sich bei Videos und Sprachaufnahmen um Deepfakes handelt. So lassen sie sich erkennen, auch wenn die menschlichen Sinnesorgane gar nicht mehr wahrnehmen können, dass es sich überhaupt um Deepfakes handelt.

Darüber hinaus können auch offensive KI-Tools eingesetzt werden, um die Cyber-Abwehr zu stärken. Ein Beispiel dafür sind KI-Systeme, die Schwachstellen in Netzwerken und Systemen aufdecken. Angreifer verwenden sie, um in die Systeme einzudringen. Verteidiger setzen sie ein, um jene Schwachstellen zu identifizieren und gezielt zu schließen.

KI erobert das Cyber-Schlachtfeld

Die obigen Beispiele zeigen dir, wie stark Künstliche Intelligenz schon heute die Welt der Cyberkriminalität bestimmt. Das Katz-und-Maus-Spiel zwischen kriminellen Hackern und IT-Sicherheitsspezialisten hat sich dadurch auf eine neue Ebene verlagert.

Die neue Dimension der KI-getriebenen Cyber-Attacken sorgt dafür, dass Unternehmen und Privatleute für ihre IT-Sicherheit vermehrt KI-basierte Verteidigungssysteme brauchen. Auch wenn man davon als Privatanwender nicht viel mitbekommt, ist es gut möglich, dass du solche Mittel schon nutzt, ohne es zu wissen. So könnte dein Provider zum Beispiel längst einen KI-gestützten Spam-Filter bereitstellen, der dein Postfach vor KI-generierten Phishing-E-Mails schützt.


Weitere Beiträge zum Thema digitaler Selbstschutz:

Identitätsdiebstahl: So reduzierst du Risiken für dein digitales Ich

Identitätsdiebstahl

So reduzierst du Risiken für dein digitales Ich

Sextortion: Kühlen Kopf bewahren bei Erpressungen

Sextortion

Kühlen Kopf bewahren bei Erpressungen

Schadprogramme: Mit diesen Maßnahmen beugst du den häufigsten Angriffen vor

Schadprogramme

Mit diesen Maßnahmen beugst du den häufigsten Angriffen vor

Sichere Passwörter & 2FA: Online-Accounts angemessen absichern

Sichere Passwörter & 2FA

Online-Accounts angemessen absichern

Fake-Shops: Betrugsversuche im Online-Handel erkennen

Fake-Shops

Betrugsversuche im Online-Handel erkennen


Wir beantworten gerne alle Fragen.

Kontaktiere uns über das untenstehende Formular oder auch unter +43 5 9555
und office@techbold.at. Unsere vollständigen Adressdaten findest du hier

Jochen Jasch, Leiter Kundenbetreuung

Jochen Jasch

Leitung Kundenbetreuung

oder ein Account Manager aus seinem Team meldet sich umgehend.