Im November 2022 hat das US-amerikanische Unternehmen OpenAI den Prototypen eines hoch entwickelten Chatbots mit künstlicher Intelligenz veröffentlicht. Seither ist ChatGPT in aller Munde. Das Kürzel GPT im Namen des Prototyps leitet sich von "Generative Pretrained Transformer" ab, dabei handelt es sich um ein Sprachmodell für künstliche Intelligenz. Das auf Deep Learning basierende Sprachmodell ermöglicht es ChatGPT, Informationen aus öffentlich verfügbaren Quellen zu extrahieren und zu einer Antwort in Textform zusammenzufassen.

ChatGPT wurde in mehreren Sprachen trainiert und kann in ganz unterschiedlichen Bereichen eingesetzt werden. Er kann Texte schreiben, zusammenfassen, Fragen beantworten, Programmcodes erstellen, Hausaufgaben erledigen, passende Reisepläne erstellen und vieles mehr. 

Deshalb verwundert es auch nicht, dass ChatGPT innert kürzester Zeit über Millionen von Menschen erreicht und ChatGPT-1damit einen neuen Rekord für die am schnellsten wachsende Nutzerbasis aufgestellt hat (Reuters, ChatGPT sets record for fastest-growing user base). Seit einiger Zeit nun häufen sich jedoch die Vorwürfe, dass ChatGPT für bösartige Zwecke eingesetzt werden kann. Immer wieder erscheint das KI-gestützte Sprachsystem deshalb in den Schlagzeilen.

Mögliche Missbrauchsfälle:

Generierung von Spam- oder Phishing-Inhalte
Eine Kernkompetenz vom KI-basierten Chatbot liegt darin Texte zu verfassen. Der Chatbot eignet sich somit bestens, um professionelle und grammatikalisch korrekte Phishing-Mails zu verfassen. Dies erschwert es Empfänger von gefälschten E-Mails, diese als solche zu erkennen. Cyberkriminelle Personen können sich somit einen Vorteil verschaffen und Phishing-Mails in verschiedenen Sprachen in kurzer Zeit erstellen (golem.de, ChatGPT und die Zukunft des Social Engineering).
SPAM-und-Phishing
Es gehört jedoch mehr zu Phishing, als nur das Senden einer überzeugenden Nachricht. Eine gute Formatierung oder Gestaltung, sowie eine passende Absenderadresse oder E-Mail Spoofing (Fälschen der Absenderadresse) gehören ebenfalls dazu und da kann ChatGPT nicht weiterhelfen.

Verbreitung von Fehlinformationen
Mithilfe von ChatGPT können fiktive Geschichten und falsche Neuigkeiten schnell und einfach verfasst werden. So können Fake-News leicht erstellt und in sozialen Medien verbreitet werden. Die Verbreitung solcher Neuigkeiten kann ChatGPT jedoch nicht übernehmen, dies muss manuell gemacht werden. Erst kürzlich wurde deshalb ein Mann in China verhaftet. Hier ist es wichtig, eigene Recherchen zu betreiben und die Informationsquellen zu verifizieren.

Erstellung von gefälschten Identitäten
Das KI-basierte Sprachmodell kann nicht selbstständig Accounts erstellen. Es ist jedoch möglich, fiktive Texte oder Geschichten zu schreiben oder den Schreibstil einer Person zu imitieren. So kann ChatGPT Cyberkriminelle gezielt unterstützen und deren Effizienz steigern.

Generierung von bösartigem Code
Der wohl beunruhigendste Vorwurf lautet, dass ChatGPT Skripts und Programme für bösartige Zwecke erstellenHacker-programmiert-Code kann. Hierbei können vor allem unerfahrene Hacker (oder sogenannte Skript Kiddies) profitieren und ohne grosse Kenntnisse Malware verbreiten. Gemäss unterschiedlichen Recherchen ist ChatGPT jedoch nicht in der Lage, komplexen Code zu schreiben. Ausserdem hat ChatGPT eine Eingabe- und Ausgabelimitierung, welche variiert und vom Modell der Rechenleistung und der Speicherkapazität abhängig ist (malwaretech.com, A Realistic Look at Implications of ChatGPT for Cybercrime).

Übrigens startet bald Bard in Europa durch, die Antwort von Google auf ChatGPT.  
 
Im folgenden Blogbeitrag der Hochschule Luzern finden Sie weitere Informationen dazu, wie KT-gestützte Sprachsysteme genau funktionieren: So funktionieren ChatGPT und Co.
 
Dieser Blogbeitrag wurde von Roxana Gnes für secnovum (eine Initiative von Partnern aus ICT- und Sicherheitsdienstleistern sowie der Bildung) geschrieben und nicht von ChatGPT.