Im November 2022 hat das US-amerikanische Unternehmen OpenAI den Prototypen eines hoch entwickelten Chatbots mit künstlicher Intelligenz veröffentlicht. Seither ist ChatGPT in aller Munde. Das Kürzel GPT im Namen des Prototyps leitet sich von "Generative Pretrained Transformer" ab, dabei handelt es sich um ein Sprachmodell für künstliche Intelligenz. Das auf Deep Learning basierende Sprachmodell ermöglicht es ChatGPT, Informationen aus öffentlich verfügbaren Quellen zu extrahieren und zu einer Antwort in Textform zusammenzufassen.
ChatGPT wurde in mehreren Sprachen trainiert und kann in ganz unterschiedlichen Bereichen eingesetzt werden. Er kann Texte schreiben, zusammenfassen, Fragen beantworten, Programmcodes erstellen, Hausaufgaben erledigen, passende Reisepläne erstellen und vieles mehr.
Deshalb verwundert es auch nicht, dass ChatGPT innert kürzester Zeit über Millionen von Menschen erreicht und
Mögliche Missbrauchsfälle:
Generierung von Spam- oder Phishing-Inhalte
Eine Kernkompetenz vom KI-basierten Chatbot liegt darin Texte zu verfassen. Der Chatbot eignet sich somit bestens, um professionelle und grammatikalisch korrekte Phishing-Mails zu verfassen. Dies erschwert es Empfänger von gefälschten E-Mails, diese als solche zu erkennen. Cyberkriminelle Personen können sich somit einen Vorteil verschaffen und Phishing-Mails in verschiedenen Sprachen in kurzer Zeit erstellen (golem.de, ChatGPT und die Zukunft des Social Engineering).
Es gehört jedoch mehr zu Phishing, als nur das Senden einer überzeugenden Nachricht. Eine gute Formatierung oder Gestaltung, sowie eine passende Absenderadresse oder E-Mail Spoofing (Fälschen der Absenderadresse) gehören ebenfalls dazu und da kann ChatGPT nicht weiterhelfen.
Verbreitung von Fehlinformationen
Mithilfe von ChatGPT können fiktive Geschichten und falsche Neuigkeiten schnell und einfach verfasst werden. So können Fake-News leicht erstellt und in sozialen Medien verbreitet werden. Die Verbreitung solcher Neuigkeiten kann ChatGPT jedoch nicht übernehmen, dies muss manuell gemacht werden. Erst kürzlich wurde deshalb ein Mann in China verhaftet. Hier ist es wichtig, eigene Recherchen zu betreiben und die Informationsquellen zu verifizieren.
Erstellung von gefälschten Identitäten
Das KI-basierte Sprachmodell kann nicht selbstständig Accounts erstellen. Es ist jedoch möglich, fiktive Texte oder Geschichten zu schreiben oder den Schreibstil einer Person zu imitieren. So kann ChatGPT Cyberkriminelle gezielt unterstützen und deren Effizienz steigern.
Generierung von bösartigem Code
Der wohl beunruhigendste Vorwurf lautet, dass ChatGPT Skripts und Programme für bösartige Zwecke erstellen
Übrigens startet bald Bard in Europa durch, die Antwort von Google auf ChatGPT.
Im folgenden Blogbeitrag der Hochschule Luzern finden Sie weitere Informationen dazu, wie KT-gestützte Sprachsysteme genau funktionieren: So funktionieren ChatGPT und Co.
Dieser Blogbeitrag wurde von Roxana Gnes für secnovum (eine Initiative von Partnern aus ICT- und Sicherheitsdienstleistern sowie der Bildung) geschrieben und nicht von ChatGPT.