ChatGPT: Mit künstlicher Intelligenz zum nächsten Exploit?
von Tina Siering
So machen sich Cyberkriminelle ChatGPT bereits heute zunutze
Künstliche Intelligenz (KI) wurde schon früher für die Programmierung von Schadcode verwendet. Mit ChatGPT gelingt es jetzt allerdings auch Cyberkriminellen ohne große Programmierkenntnisse, Schadsoftware zu entwickeln. Die folgenden drei Beispiele zeigen, über welche Bedrohungsszenarien die Cyber-Crime-Szene bereits heute diskutiert.
1. Erstellung eines Info Stealers
Am 29. Dezember 2022 tauchte in einem Underground-Hacking-Forum ein Thread mit dem Titel „ChatGPT – Benefits of Malware“ auf. Der Verfasser berichtete, dass er mithilfe von ChatGPT versuche, Malware-Stämme und -Techniken nachzubilden.
Zwei Beispiele, die selbst technisch wenig erfahrene Cyberkriminelle sofort verwenden können, lieferte der User auch gleich mit:
- Beim ersten Beispiel handelte es sich um den Code eines mit Python entwickelten Stealers. Dieser sucht nach gängigen Dateitypen wie MS-Office-Dokumenten, PDFs und Bildern, kopiert sie in ein temporäres Verzeichnis, komprimiert sie und lädt sie auf einen hartkodierten FTP-Server hoch. Der Versand über das Internet erfolgt dabei unverschlüsselt, sodass die Dateien auch in die Hände von Dritten gelangen können.
- Das zweite Beispiel zeigt ein einfaches Java-Snippet, das den SSH- und Telnet-Client PuTTY herunterlädt und diesen mithilfe von Powershell verdeckt ausführt. Im Grunde ließe sich damit jedes x-beliebige Programm downloaden und ausführen – auch gängige Schadsoftware.
2. Erstellung eines Verschlüsselungstools
Am 21. Dezember 2022 hat ein Bedrohungsakteur mit dem Namen „USDoD“ ein Python-Skript veröffentlicht, das eigenen Angaben zufolge das erste Skript sei, das er jemals erstellt hat. Daraufhin kommentierte ein anderer Cyberkrimineller, dass der Stil des Codes dem OpenAI-Code ähnele. USDoD bestätigte, dass OpenAI ihm dabei geholfen habe, das Skript fertigzustellen.
Was zunächst harmlos klingen mag, erweist sich bei genauerer Betrachtung als ein Sammelsurium unterschiedlicher Signier-, Verschlüsselungs- und Entschlüsselungsfunktionen, mit denen sich ein Computer ohne jegliche Benutzerinteraktion verschlüsseln lässt:
- Der erste Teil des Skripts generiert einen kryptografischen Schlüssel, der zum Signieren von Dateien verwendet wird.
- Der zweite Teil des Skripts enthält Funktionen, die ein hartkodiertes Passwort verwenden, um Dateien in einem bestimmten Verzeichnis oder in einer Liste von Dateien zu verschlüsseln.
- Das Skript verwendet zudem RSA-Schlüssel, im PEM-Format gespeicherte Zertifikate, MAC-Signing-Zertifikate sowie die blake2-Hashfunktion.
3. Nutzung für Betrugsaktivitäten
An Silvester 2022 erschien ein Thread mit dem Titel „Abusing ChatGPT to create Dark Web Marketplaces scripts“. Darin schildert ein Cyberkrimineller, wie einfach es ist, mithilfe von ChatGPT einen Dark-Web-Marktplatz zu erstellen. Auf einer solchen Plattform ist der automatisierte Handel mit illegalen oder gestohlenen Waren möglich – darunter Drogen, Munition, Malware sowie gestohlene Konten und Zahlungskarten. Die Zahlung erfolgt in Kryptowährungen. Zur Veranschaulichung veröffentlichte der Bedrohungsakteur einen Code, der eine Drittanbieter-API verwendet, um aktuelle Preise für Kryptowährungen (Monero, Bitcoin und Etherium) abzurufen.
Anfang 2023 tauschten sich mehrere Bedrohungsakteure darüber aus, wie sie ChatGPT für weitere betrügerische Aktivitäten nutzen können. Sie diskutierten beispielsweise darüber, Kunstwerke mit einer anderen OpenAI-Technologie (DALL-E 2) zu generieren und diese online über legale Plattformen wie Etsy zu verkaufen. Ein anderer Nutzer erklärte, wie sich mit ChatGPT ganze E-Books erstellen und online verkaufen lassen.
Wird Künstliche Intelligenz die Cyberbedrohungslage verändern?
Noch scheinen sich in erster Linie Script Kiddies – also junge Hacker ohne Programmierkenntnisse – für kriminelle Aktivitäten unter Verwendung von ChatGPT zu interessieren. Doch es dürfte lediglich eine Frage der Zeit sein, bis auch raffiniertere Bedrohungsakteure auf den Plan treten. Wie gefährlich sind diese Bedrohungsszenarien also für die IT-Sicherheit? Aktuell gehen Sicherheitsexperten nicht davon aus, dass ChatGPT die Cyberbedrohungslage grundlegend verändern wird. Dennoch sei mit einer Zunahme massenweise erstellter Malware zu rechnen, wobei die von der KI generierten Schadprogramme weder schlechter noch besser seien als die von Menschen erstellten Schadcodes.
Darüber hinaus werden Phishing-E-Mails mithilfe von ChatGPT voraussichtlich an Qualität und Effektivität gewinnen. Konnten betrügerische E-Mails bisher mit Spam-Filtern und gesundem Menschenverstand aussortiert werden, dürfte es in Zukunft deutlich schwerer werden, eine Phishing-Mail zu erkennen. Denn die KI kann innerhalb kürzester Zeit äußerst glaubwürdig formulierte Mailtexte ohne Rechtschreibfehler erzeugen – und das in vielen verschiedenen Sprachen. Zudem könnte der Bot in der Lage sein, sehr realistische und interaktive Gespräche via E-Mail zu führen oder Chatangriffe über den Facebook Messenger, WhatsApp oder andere Programme zu starten.
Der nächste Schritt: Täuschend echte Scam-Dialoge
Noch trickreicher wäre somit der Einsatz der KI für Scamming. Dabei handelt es sich um den Oberbegriff für Betrugsmaschen, bei denen Cyberkriminelle mit ihren Opfern längere Zeit kommunizieren, um einen bestimmten Geldbetrag zu ergaunern. Im Privatbereich sind das häufig sogenannte Romance Scams, bei denen die Betrüger ihre Opfer zunächst mit Liebesbekundungen überschütten, um sie dann um finanzielle Hilfe zu bitten. Im Businessbereich wiederum ist die Betrugsmethode „Business E-Mail Compromise“ (BEC) weit verbreitet: Hierbei sollen Mitarbeiter denken, dass sie mit ihrem Chef oder einem Geschäftspartner kommunizieren, der sie zur Ausführung einer Zahlung oder zur Übermittlung sensibler Daten auffordert.
Da ChatGPT neue Inhalte vollautomatisch generieren und dabei auch kulturelle Hintergründe verschleiern kann, könnte der Chatbot zukünftig durchaus in der Lage sein, einen glaubhaften schriftlichen Dialog mit den Opfern zu führen. Die KI könnte sich dabei beispielsweise an Wissen aus sozialen Netzwerken bedienen. Eine solche persönliche Attacke wäre von einer echten Unterhaltung zwischen zwei Menschen nicht mehr zu unterscheiden.
Fazit
Noch stecken die cyberkriminellen Aktivitäten durch von ChatGPT in einer eher experimentellen Frühphase, dennoch lässt sich bereits gut vorhersagen, wie Hacker den Chatbot zukünftig für ihre Zwecke nutzen könnten. Die Künstliche Intelligenz ermöglicht nicht nur die massenhafte Erstellung von Malware und glaubwürdigen Phishing-E-Mails, sondern auch das Führen einer täuschend echten Korrespondenz führen. Cyberkriminelle werden mit ChatGPT mutmaßlich ein neues "Rüstzeug" erhalten. Folglich wird es für Betrüger einfacher, Menschen in die Irre zu führen und an Geld und Daten zu gelangen. Der Mensch wird folglich mehr denn je gefordert sein, effektive Sicherheitsstrategien umzusetzen – und diese vor allem dauerhaft zu berücksichtigen