ChatGPT und die Gefahren für die Cybersicherheit von Unternehmen
KI-Chatbot als Bedrohung für die IT-Sicherheit?
Patrick Binder / 14. Februar 2023Als SOC Analyst in unserem abtis Cyber Defense Operation Center gehört es zu meinen täglichen Aufgaben, die IT-Sicherheit unserer Kunden im Auge zu behalten. ChatGPT ist seit dem Release ein fester Bestandteil meines Werkzeugkastens und stellt in seinem aktuellen Entwicklungsstatus einen bemerkenswerten Mehrwert für meine tägliche Arbeit dar. Sobald ich auf ein technisches Problem stoße, dass ich nicht auf Anhieb lösen kann, frage ich häufig zuerst ChatGPT und danach erst Google bzw. schaue in die Herstellerdokumentation.
Jedoch gibt es auch hier eine Kehrseite der Medaille: In Darknet-Foren liest man vermehrt über Fälle, in denen beschrieben wird, wie man ChatGPT für kriminelle Handlungen verwenden kann. Die Berichte reichen hierbei über automatisch generierte Kunst, die sich über Etsy verkaufen lässt, bis hin zur Erstellung von Ransomware.
So wie auch ich in meiner täglichen Arbeit von dem fortschrittlichen Textgenerierungsmodell von OpenAI profitieren kann, haben auch Cyberkriminelle ihren Werkzeugkasten erweitert. Dabei stellt sich die Frage, ob ChatGPT eine unmittelbare Gefahr für die IT-Sicherheit in Unternehmen darstellen kann und wie man sich davor schützt.
Pro und Kontra von ChatGPT
Ein schöner Vorteil von ChatGPT ist unumstritten die einfache Zugänglichkeit und innovative Bedienung. Ohne großen Aufwand kann man sich einen Account bei OpenAI erstellen und schon können Fragen gestellt werden. Innerhalb von Sekunden bekommt man verwertbare Ergebnisse. Das Besondere dabei ist, dass man sich keine großen Gedanken darüber machen muss, wie man die Frage formuliert. Trotzdem setzt die Fragestellung in vielen Fällen entsprechendes Know-how vom Fragensteller voraus, um eine verwertbare und richtigen Antwort zu generieren. Für genauere Ergebnisse kann man allerdings weiteren Kontext mitgeben und bestimmen, wie umfangreich oder in welcher Form die Antwort auszusehen hat (Bsp. "Schreibe mir einen Text über Thema XY mit maximal 500 Zeichen").
Ein Fallstrick ist jedoch, dass neben der hohen Quote von richtigen Antworten, auch vollkommen falsche entstehen. Die falschen Antworten werden aber von ChatGPT mit einer gewissen Selbstgewissheit präsentiert, was den Nutzer in die Irre führen kann. Darum ist es wichtig, dass Antworten von qualifiziertem Fachpersonal verifiziert werden, um die Ergebnisse sinnvoll weiterverbreiten zu können.
Des Weiteren gibt es auch Fälle, bei denen ChatGPT nicht die richtige Lösung für ein Problem findet und den Problemlösungsansatz des Nutzers über den Haufen wirft, um einen anderen Weg zum Ziel aufzuzeigen. Durch wiederholtes Fragen bekommt man alternative Antworten. Dadurch werden dem Fragensteller weitere wertvolle Informationen bereitgestellt, um auf eine Lösung zu kommen. So entstehen viele Ansätze, Denkanstöße oder alternative Wege, um eine technische Hürde zu überwinden.
In meinen Augen liegt eine große Stärke des ChatGPT’s darin, kleine und einfache Skripte zu erstellen. Ebenso kann er beim Verstehen von Skripten oder Code im Allgemeinen helfen und ist auch bei der Fehlersuche Gold wert.
Risiken durch kriminelle Akteure
Obwohl der KI-Chatbot selbst keine unmittelbare Bedrohung für die Cybersicherheit darstellt, kann es in den falschen Händen ein potenzielles Risiko darstellen. Zum Beispiel kann der Bot von kriminellen Akteuren verwendet werden, um in den sozialen Medien aktiv zu werden. Dadurch kann ein schadhafter Link größere Reichweite erlangen und die Chance auf einen erfolgreichen Angriff steigt.
ChatGPT kann dennoch keine automatischen Angriffe auf die IT-Infrastruktur von Unternehmen ausführen. Auch ein vollautomatisiertes Angriffsszenario aus einem anderen System heraus, wobei ChatGPT relevante Entscheidungen treffen müsste, um erfolgreich zu sein, sehe ich aktuell für unrealistisch an. Dafür ist die Fehlerquote noch zu hoch. Aber auch wenn keine direkte Bedrohung von ChatGPT selbst ausgeht, ist die indirekte Bedrohung, die aus verschiedenen Punkten hervorgeht, dennoch nennenswert.
Ein Risiko, das ChatGPT für die IT-Sicherheit in Unternehmen darstellt, ist, dass Angreifer mehr, mit weniger erreichen können und dadurch zeiteffizienter sind. Kriminelle, ohne entsprechendes Know-how, werden auch mit ChatGPT nicht plötzlich zu Profis. Ein Vorteil für den Angreifer liegt eher in der Bereicherung vor dem Angriff: Der Chatbot kann bei der Recherche für passende Tools, Skripte und bei Herangehensweisen helfen.
-
Malware
Bei der Erstellung von Malware kann ChatGPT ein wertvolles Hilfsmittel sein. Sicherheitsforscher von Checkpoint haben gezeigt, wie ChatGPT bei einem möglichen Angriffsszenario helfen kann, Phishing-Mails zu erstellen und passenden Malware zu generieren.
Das heißt aber nicht, dass weniger erfahrene Angreifer ohne jegliche Programmierkenntnisse per Knopfdruck funktionierende Malware erstellen können. Das Know-how, das der Fragensteller mitbringt, ist dabei entscheidend.
Ein Pluspunkt von ChatGPT ist, dass man durch wiederholtes Fragen die Antwort variieren, mutieren, abkürzen kann. Dadurch kann Malware abgeändert werden, die Verwendung alternativer Vorgehensweisen hervorgerufen werden oder auch vereinfacht bzw. verkompliziert werden. Dadurch kann die Erkennungsrate durch Schutzmechanismen sinken, aber auch dem Angreifer auf die Sprünge geholfen werden durch das reine Aufzeigen von alternativen Herangehensweisen. Aus diesen Gründen ist in Zukunft insgesamt mehr Ransomware-Vorfallen zu rechnen.
-
Phishing
Ich sehe bei ChatGPT ein mögliches Sicherheitsrisiko, besonders bei Angriffen, die über E-Mails durchgeführt werden. Diese Angriffe könnten jede E-Mail automatisch personalisiert gestalten lassen.
Im Falle eines fortgeschrittenen Angriffs könnte es sein, dass mithilfe von ChatGPT in eine bestehende E-Mail-Kommunikation eines schon kompromittierten Accounts eingestiegen wird und automatisierte Antworten auf E-Mails dynamisch generiert werden. Die Art und Weise, wie Malware dadurch auf dem Zielsystem landet, variiert von Fall zu Fall. Die Malware wird individuell erstellt und auf unterschiedliche Arten zur Ausführung gebracht. Vergleichbare Szenarien könnten natürlich auch Phishing-Kampagnen sein, die auf Zugangsdaten abzielen.
Dies ist aber nur ein dystopischer Gedankengang, was theoretisch möglich wäre - mit fortschreitender technologischer Entwicklung aber näher in den Bereich des Möglichen rückt.
Die Möglichkeit durch ChatGPT jede einzelne Mail für einen Angriff zu individualisieren, erhöht die Erfolgsquote, dass Mails im Posteingang landen und Opfer auf Links oder Anhänge klicken. Dies kombiniert mit der Stärke potenzielle Malware zu erstellen, ergibt eine in der Theorie gefährlich klingende Konstellation. Somit lässt der Einsatz von ChatGPT durch Cyberkriminelle einen Anstieg von professionellen Angriffsversuchen vermuten.
Shit in Shit out
ChatGPT stellt meiner Meinung nach kein akutes Risiko mit dringendem Handlungsbedarf dar, da er nur so gute Antworten bringen kann, wie auch die Frage entsprechend Qualität hat. In fast allen Bereichen, wo ChatGPT Inhalte liefert, die einem Cyberkriminellen von bedeutendem Mehrwert sind, ist der Input entscheiden. Der Output muss dabei von einer Person mit entsprechendem Know-how bewertet und weiterverarbeitet werden.
Für eine professionelle und fehlerfreie Phishing-Mail mit Erfolgspotential braucht der Angreifer keine künstliche Intelligenz. Dieses Niveau haben kriminelle Akteure bereits erreicht. ChatGPT unterstützt hier dennoch und kann den Angreifern helfen, effektiv Know-how aufzubauen.
Sicherheitsvorkehrungen von ChatGPT
ChatGPT hat bestimmte Sicherheitsvorkehrungen eingebaut, die dafür sorgen, dass auf manche Fragen keine Antwort gegeben wird.
Dies ist der Fall, wenn aus der Fragestellung besonders eindeutig illegale Absichten deutlich werden. Durch kreative Umformulierung der Frage lassen sich diese Schutzmechanismen allerdings stellenweise auch umgehen.
Teilweise gibt ChatGPT die Antwort auf eine verdächtige Frage, die gegen die Richtlinien verstößt, aus und teilweise nicht. Denn während meiner Recherche ist mir aufgefallen, dass manche Fragen zuerst mit einem Hinweis auf Missbrauch beantwortet werden. Beim späteren Nachfragen habe ich auf dieselbe Frage keine Antwort mehr bekommen - mit der Begründung, dass die Frage gegen die Richtlinien verstößt.
Auch ChatGPT lernt stetig dazu. Und aus Perspektive der IT-Sicherheit lässt das vermuten, dass es für Cyberkriminelle immer schwieriger wird, von ChatGPT zu profitieren.
Zukunftsausblick
ChatGPT hat noch lange nicht sein volles Potenzial erreicht und ist dafür schon bemerkenswert vielseitig einsetzbar. Meiner Meinung nach werden Technologien, wie die, des KI-Chatbots, in der näheren Zukunft einen signifikanten Einfluss auf die IT-Sicherheit haben und neue Möglichkeiten eröffnen. Davon profitieren sowohl die Angreifer, als auch die Verteidiger und damit hat ChatGPT das Potenzial, die IT der Zukunft nachhaltig mitzugestalten.
Er ist aufgrund seiner Fähigkeit, Eingaben in natürlicher Sprache zu verstehen und darauf zu reagieren, für verschiedene Aufgaben von großem Wert, wie beispielsweise Phishing-Erkennung, Reaktion auf Sicherheitsvorfälle, Mitarbeiterschulung, Überwachung von Bedrohungen und Berichterstellung. Mit der zunehmenden Verwendung von ChatGPT und anderen Sprachgenerierungsmodellen durch Organisationen, erwarten wir langfristig auch eine Verbesserung der digitalen Sicherheit.
Als leistungsfähiges Werkzeug, das in der Lage ist, große Datenmengen zu verarbeiten und menschenähnlichen Text zu generieren, kann ChatGPT Sicherheitsteams zukünftig dabei unterstützen, Bedrohungen frühzeitig zu erkennen, angemessen auf Vorfälle zu reagieren und ihre allgemeine Sicherheitssituation zu verbessern.
Resümee
Das Risiko, das durch ChatGPT ausgeht, ist letztendlich gering und es besteht kein dringender Handlungsbedarf, wie beim Schließen einer kritischen Sicherheitslücke. Dennoch sollten wir uns im Klaren sein, dass Cyberkriminelle fortschrittliche Technologien wie ChatGPT nutzen und auf einem hochprofessionellen Niveau agieren. ChatGPT hat das Potenzial, die Cyber-Bedrohungslandschaft erheblich zu verändern. Der Einsatz fortgeschrittener Technologien ist stets ein weiterer Schritt in Richtung gefährliche, raffinierte und effektive Cyberangriffe.
Für Unternehmen ist es besonders wichtig, die Bedrohungen durch KI-Systeme wie ChatGPT zu verstehen und entsprechende Maßnahmen zu ergreifen, um die Cybersicherheit zu verbessern. Es ist wichtig, sich der potenziellen Bedrohung bewusst zu sein und geeignete Maßnahmen zu ihrer Minderung zu ergreifen.
Wie kann ich mich als Unternehmen schützen?
- Sie sollten User über gängige Angriffsmethoden der kriminellen Akteure unterrichten (Awareness-Training) und wertvolles Wissen vermitteln, wie sie sich vor Bedrohungen schützen können.
- Überprüfen Sie eingehende Mails durch moderne Technologien
- Verwenden Sie die Multi-Faktor-Authentifizierung
- Halten Sie Ihre Systeme immer Up-to-Date
- Setzen Sie eine intelligente AV-Lösung auf all Ihren Systemen ein
Gerade dadurch, dass ChatGPT der Welt so einfach zugänglich gemacht wird, ist es umso wichtiger moderne EDR/XDR Lösung einzusetzen um Ihre IT-Infrastruktur abzusichern.
Es ist jedoch wichtig zu erwähnen, das durch den Einsatz solch fortgeschrittener Technologien zum Beispiel auch die Anzahl der zu überprüfenden Fälle steigt. Außerdem benötigt man für die Implementierung Erfahrung und das entsprechende Fachpersonal, um mit dem notwendigen Hintergrundwissen auf die Vorfälle zu reagieren. Gerne unterstützen wir Sie hierbei in Form eines abtis Managed Service.
Wir bieten Ihnen IT-Sicherheit für Ihr Unternehmen
In unserem abtis Cyber Defence Operation Center (CDOC) kümmern sich speziell ausgebildete Analysten um den Schutz Ihres Unternehmens und Ihrer Daten. Wenden Sie sich gerne an unsere Kolleg:innen aus dem Vertrieb, um über individuelle Möglichkeiten zu sprechen.
Jetzt Kontakt aufnehmen