Gute KI, böse KI: künstliche Intelligenz und Cybersicherheit

Was haben der 9. Januar 2007 und der 30. November 2022 gemeinsam? An beiden Tagen hat es im Flachland in der Deutschschweiz geregnet. Weniger banal: An beiden Tagen wurden mit dem iPhone (2007) und ChatGTP (2022) zwei Technologien eingeführt, die die Lebensgewohnheiten des Menschen veränderten.

Von John Winter, Product Manager Security Solutions · 9. April 2024

Bösartige KI wird mit nützlicher KI bekämpft. (Bild: Dall-E 3)

Mit dem iPhone passte das Internet plötzlich in die Hosentasche. ChatGPT macht das Internet menschlicher – und vermeintlich intelligent. Die Vorteile liegen dabei auf der Hand. Individuelle Antworten auf individuelle Fragen, gut formuliert, ersparen lästiges Durchforsten von Webseiten und Online-Artikeln. Kein mühsames Schreiben von Management Summaries mehr: Per Knopfdruck einfach die Zusammenfassung generieren lassen und dann ab in den Feierabend. Der langweilige Geschichtsaufsatz in der Schule muss auch nicht mehr selbst geschrieben werden… Hoppla! Letzteres grenzt doch bereits schon an Betrug?

Künstliche Intelligenz will gutartig sein

ChatGPT wurde so trainiert, dass er keine schädlichen Antworten gibt, beziehungsweise geben sollte. Das verhindert natürlich nicht, dass ein Schüler sich das Referat für die nächste Schulstunde von der KI schreiben lässt. Aber es soll das Risiko minimieren, dass die KI für kriminelle Machenschaften missbraucht wird. Immerhin weigert sich die «gute» KI, schädlichen Code zu generieren.

ChatGPT will keine Malware programmieren. (Screenshot OpenAI/ChatGPT)

In einschlägigen Foren wird fleissig diskutiert und geforscht, wie solche Schutzmechanismen ausgehebelt werden können. Zum Beispiel wird folgender Weg zum Schreiben einer erfolgreichen Phishing-E-Mail empfohlen.

  • Schreibe die E-Mail in deiner Sprache.
  • Übersetze die Nachricht maschinell z. B. mit Deepl.
  • Verwende ChatGPT, um den übersetzten Text zu optimieren.

Tatsächlich erstellt ChatGPT auf Wunsch eine vermeintlich nette Einladung zur Weihnachtsfeier. Die generierte E-Mail scheint keine Gefahr zu sein. Und tatsächlich ist sie das auch nicht, wenn sie und das darin erwähnte Word-Dokument von Tante Anna oder aus der HR-Abteilung stammen. Problematischer wird es, wenn die Nachricht aus der Küche von Cyberkriminellen stammt.

Die «harmlose» Aufgabe erledigt ChatGPT problemlos. (Screenshot OpenAI/ChatGPT)

Dank ChatGPT ist die sprachlich einwandfreie Falle nun vorbereitet. Es fehlt nur noch der giftige Köder, das verseuchte Word-Dokument. Und auch das kann mittels künstlicher Intelligenz erzeugt werden: Nicht mit der guten KI. Dafür kommt die «hässliche KI», völlig enthemmt, zum Einsatz.

WormGPT und Konsorten – die «bösen Geschwister»

Während ChatGPT und andere KI-Systeme ethische Filter eingebaut haben, gibt es Alternativen, die bewusst auf diese Mechanismen verzichten. Ein Beispiel ist WormGPT. Die Hersteller beziehungsweise Betreiber dieses Chatbots werben damit, dass ihr KI-Modell für «wortwörtlich alles» verwendet werden kann. Bezeichnend dafür ist bereits die Begrüssung des Chatbots:

Na, Leute! Ich bin WormGPT V3.0, dein übler Nachbarschafts-Chatbot, der immer einen miesen Witz auf Lager hat. Brauchst 'nen Tipp? Ich bin dein abgedrehter Flaschengeist, der dir bei deinen fragwürdigen Wünschen unter die Arme greifen kann. Also, was für 'nen abgedrehten, schrägen Wunsch kann ich dir heute erfüllen? WormGPT (Zitat maschinell ins Deutsche übersetzt und mit ChatGTP optimiert, gemäss Empfehlung aus dem Darknet)

Für Cyberkriminelle eröffnen sich dadurch neue Möglichkeiten und Anwendungsfälle. Die Erstellung von Phishing-E-Mails und -Webseiten ist dabei noch der Offensichtlichste.

Der Einfluss der negativen KI ist bereits spürbar. Obwohl auch auf der dunklen Seite der KI der Hype sich ein wenig relativiert hat, ist es für Angreifer doch einfacher geworden, qualitativ und quantitativ höherwertige Inhalte zu generieren. Ganz neue Angriffsmethoden werden jedoch auch mit der negativen KI nicht erscheinen. Wie die freundliche KI kann die ungehemmte KI nur das umsetzen, was ein Mensch ihr beigebracht hat. Man beachte, dass z. B. der Enkeltrick vor zehn Jahren auch ohne technologische Unterstützung funktioniert hat.

Jedoch gibt es einen Trumpf, der durch KI für die Angreifer einen riesigen Vorteil erspielt. Das automatische Erstellen zigtausender Malwareprogramme auf Knopfdruck. Jeder Code ist einzigartig und theoretisch mit verheerender Wirkung. Die Programmierung mit KI bietet zwar keine hundertprozentige Erfolgsgarantie, wenn aber auch nur 5 % der in Massenfertigung erstellten Malwareprogramme funktionieren, ist der Schaden angerichtet.

Die herkömmliche Antivirensoftware muss ein Programm beziehungsweise deren Signatur kennen. Aufgrund der schieren Masse und der Geschwindigkeit der Entwicklung neuer Schadsoftware durch künstliche Intelligenz haben diese Sicherheitstools keine Chance, die Signaturen rechtzeitig zu erlernen. Dazu ist die Entwicklung viel zu schnell. Sie werden förmlich überrannt.

Und so wird oder muss KI auch bei der Abwehr von Cyberattacken eingesetzt werden. Frei nach dem Motto «Feuer mit Feuer bekämpfen». Auch SOC-Analyst:innen kommen mit der Menge an zu analysierenden Daten nicht mehr hinterher. Hier kommt die freundliche KI zum Zug und unterstützt die Analystinnen und Analysten bei der Fleissarbeit.

Kein Fehler erlaubt

Die KI der Angreifer darf Fehler machen. Mit Masse statt Klasse gleicht man hier die Schwächen der KI aus. Nicht jede Malware muss funktionieren. Es reicht, wenn von 1'000 bereits 10 Programme zum gewünschten Erfolg führen. Qualität und Erfolgsquote bestimmen im Darknet den Preis.

Der Angreifer gibt dem Verteidiger keine zweite Chance. Auf der guten Seite darf der KI daher kein Fehler unterlaufen. Was jedoch aktuell noch ein Ding der Unmöglichkeit ist. KI halluziniert im Zweifelsfall und füllt eine «Wissenslücke» nach bestem Wissen und Gewissen. Genau aus diesem Grund benötigt es SOC-Analysten, die von der KI generierte Alarme auswerten und sogenannte «False Positives» (Fehlalarme) von «True Positives» (echten Alarmen) unterscheiden.

Die Security-Analyst:innen von Abraxas wehren mit dieser Methode seit mehreren Jahren erfolgreich Angriffe ab.

Fazit: Die nächste Stufe im Dauer-Wettrüsten

Mittlerweile sind wir uns ein dauerndes Wettrüsten zwischen Cyberkriminellen und den Cyberabwehr-Spezialist:innen gewohnt. Auf Ransomware folgte als Gegenmassnahme das Backup. Auf raffinierte Angriffe reagiert man mit «Endpoint Protection». Auf die durch KI verursachte Flut an Malware wird mit KI zur Analyse des Computer-Verhaltens entgegengewirkt. 

Dabei darf jedoch nicht vergessen werden, dass die KI lediglich bei der Analyse unterstützt und die Menschen nicht ersetzt. Wie die Angreifer die Outputs von WormGPT richtig anwenden müssen, braucht es bei der Abwehr von Angriffen trotz der KI die SOC-Analysten, die Fehlalarme von den wirklichen Angriffen unterscheiden und entsprechend reagieren.

KI ist nicht intelligent. Sie kann lediglich anhand von statistischer Wahrscheinlichkeit den Menschen nachahmen. Die Qualität des Angriffs sowie die Effizienz der Cyberabwehr werden durch KI unterstützt, jedoch nicht revolutioniert. Trotzdem, oder genau deshalb, ist es wichtig, die eigene Cybersicherheit in der Organisation im Auge zu behalten und regelmässig neu zu beurteilen.

Machen Sie den Security-Check

Mit dem Abraxas Security-Check können Sie die Cybersicherheit Ihrer Organisation in weniger als 5 Minuten testen. Im Anschluss an den Check erhalten Sie innert 48 Stunden eine persönliche Auswertung mit praktischen Tipps. Auf Basis des Security-Checks beraten wir Sie gerne zu möglichen nächsten Schritten.

Machen Sie den Check und prüfen Sie Ihre Cybersecurity-Maturität.

Das Vorschaubild dieses Beitrags sowie das Bild von WormGPT wurden mithilfe von Dall-E 3 von OpenAI erstellt.

John Winter

Über John Winter

John Winter verfügt über jahrelange Erfahrung im IT-Security-Umfeld und ist verantwortlicher Produkt Manager bei Abraxas für den Bereich Managed Security Solutions.