Die Fortschritte im Bereich der künstlichen Intelligenz und speziell im Bereich der LLM (Large Language Models) haben zu einer Vielzahl aufregender Entwicklungen geführt, darunter auch Chatbots wie Chat GPT. Diese leistungsstarken Modelle können menschenähnliche Gespräche führen und bei einer Vielzahl von Aufgaben helfen. So schreibt der Chatbot in kürzester Zeit einen Aufsatz, komponiert Lieder oder verfasst E-Mails. Dies machen sich vermehrt auch Kriminelle zunutze.
Phishing und Social Engineering
Die Fähigkeit von Chat GPT, menschenähnliche Texte zu generieren, eröffnet Cyber-Kriminellen neue Möglichkeiten zur Täuschung. Durch die Nachahmung echter Personen oder Institutionen können sie Phishing-Angriffe durchführen. Ein Beispiel hierfür ist das Erstellen von gefälschten Webseiten oder authentischen E-Mails: Dabei werden Opfer dazu verleiten, ihre Zugangsdaten oder finanziellen Informationen preiszugeben. Hierfür wird ein Social Engineering-Ansatz verwendet, welcher durch die Ausnutzung menschlicher Eigenschaften deren Vertrauen erweckt und diese so zum Handeln verleitet. Zwar wurden bei Chat GPT Sicherheitsvorkehrungen getroffen, um potenziell bedrohliche Absichten zu erkennen, jedoch können diese durch eine richtig gestellte Frage (Prompt-Engineering) umgangen werden.
Automatisierung von Angriffen
Chat GPT kann auch dazu verwendet werden, Angriffe auf Computersysteme zu automatisieren. Durch die Verwendung der KI können Cyber-Kriminelle maßgeschneiderte Malware erstellen, Schwachstellen identifizieren oder Angriffe auf Netzwerke durchführen.
Erstellung von Malware, Exploits und Ransomware:
Cyber-Kriminelle könnten Chat GPT dazu nutzen, maßgeschneiderte Malware (Schadsoftware) und Exploits (Malware/Befehlsfolge zur Ausnutzung von Sicherheitslücken und Fehlfunktionen) zu entwickeln. Durch die Programmierung des Sprachmodells mit Kenntnissen über Schwachstellen und Angriffsmethoden können die Kriminellen automatisch schädlichen Code generieren, der auf bestimmte Ziele angepasst ist. Dies könnte die Effektivität und Verbreitung von Malware erhöhen und die Entdeckung durch Sicherheitslösungen erschweren.
Bei einer Ransomware-Attacke werden Daten des Opfers zunächst verschlüsselt, um anschließend Lösegeld für deren Freigabe zu erhalten. Für die Zahlung des Erpressergeldes nutzen Hacker die KI auch, um Zahlungssysteme für Kryptowährungen zu erstellen. Doch nicht nur für diese Finanzbewegungen wird die KI verwendet, sondern auch für Geldwäsche. Durch die authentischen Gespräche über Geschäftsaktivitäten werden die Transaktionen von Überwachungssystemen übersehen oder als unauffällig eingestuft.
Fazit
Die potenzielle Verwendung von Chat GPT als Helfer für Cyberkriminelle birgt ernsthafte Risiken. Es ist entscheidend, dass Entwickler, Hersteller und Benutzer dieser Technologie ihre Verantwortung erkennen und Maßnahmen ergreifen, um Missbrauch zu verhindern. Die Security-Experten von KONVERTO weisen darauf hin, dass durch die Implementierung einer umfangreichen Sicherheitslösung sowie kontinuierlicher Überwachung Modelle diese Risiken minimiert werden können. Gleichzeitig sollten wir die positiven Eigenschaften von Chat GPT verwenden und ethische und verantwortungsvolle Nutzung fördern.