In den Schattenbereichen des Internets tauchte kürzlich eine innovative, aber bedrohliche Entwicklung auf: FraudGPT.
Im Darknet und bei Telegram hat sich vor ein paar Wochen eine neue Bedrohung offenbart, die die Grenzen der Cybersicherheit herausfordert. Sie nennt sich FraudGPT. Dies ist ein fortschrittliches, KI-gesteuertes Chatbot-Tool. Diese Entwicklung, die auf offensive Cyberaktivitäten abzielt, stellt eine ernste Gefahr dar.
Die Natur von FraudGPT
Als erste stießen vor ein paar Wochen die Cybersicherheitsforscher von Netenrich auf diese neue Bedrohung. FraudGPT ist eine Abwandlung der bekannten AI ChatGPT, die man spezielle auf betrügerische Aktivitäten maßgeschneidert hat.
Obwohl erste Berichte bereits im vorherigen Juli erschienen, ist seine Präsenz im Darknet eine neuere Entwicklung. Dieses Tool könnte entweder ein raffinierter Exit-Scam Betrug sein oder tatsächlich Verbindungen zu einem echten, für Betrug entwickelten LLM haben. Die Miete reicht von $200 pro Monat bis $1.700 pro Jahr. Es gibt davon noch eine Abwandlung namens WormGPT, die ebenfalls im Sommer 2023 das erste Mal auftauchte.
Dieser KI-Chatbot, FraudGPT, besitzt eine Vielzahl an Fähigkeiten, die für bösartige Zwecke einsetzbar sind. Er beherrscht nicht nur die Standardfunktionen von ChatGPT4, sondern kann durch Ausnutzung der in den Trainingsdaten vorhandenen Informationen unter anderem Phishing-Nachrichten generieren oder Quellcode für Malware entwickeln.
Auflistung der Fähigkeiten und Risiken, wie im Bedrohungsanalysebericht folgend:
- Phishing und Spear Phishing: FraudGPT kann überzeugende SMS-Phishing-Nachrichten und E-Mails erstellen. Möglich sind auch professionell aussehende E-Mails, die Banken und andere bekannte Unternehmen imitieren.
- Malware-Erstellung: Es ist in der Lage, bösartigen Code zu generieren. Es kann undetektierbare Malware erstellen, was es zu einer mächtigen Waffe für Cyberangriffe macht.
- Kreditkartenbetrug: FraudGPT erleichtert den Diebstahl von Kreditkarten. Es unterstützt auch die Beschaffung nicht verifizierter Visa-Bank-IDs. Durch die Bereitstellung von Informationen ermöglicht es Finanzbetrug.
- Andere bösartige Aktivitäten: Der KI-Chatbot kann Phishing-Seiten erstellen, Hacking-Tools entwickeln, betrügerische Seiten/Briefe erstellen, Lecks und Schwachstellen finden und vieles mehr.
Bedrohungsgrad
- Fortgeschrittene KI: Unterscheidet sich von anderen Modellen durch ihre überlegene Fähigkeit. Es erkennt kontextabhängige Informationen und generiert Daten aus unvollständigen Eingaben.
- Verstehen von Benutzerabsichten: Ausgefeilte Algorithmen ermöglichen es, die Absicht des Benutzers zu verstehen. Dadurch wird es schwierig, echte von gefälschten Inhalten zu unterscheiden.
- Vielseitigkeit: Kann für eine Vielzahl von böswilligen Zwecken verwendet werden, z. B. für die Erstellung von Bewertungen, Nachrichtenartikeln. Es kann auch für Online-Betrug oder Manipulation der öffentlichen Meinung genutzt werden.
FraudGPT könnte eine rapide Verbreitung unter Cyberkriminellen finden und insbesondere anfällige Sektoren wie Bildung, Gesundheitswesen, Regierung und Industrie ins Visier nehmen. Das Tool repräsentiert eine neue Ära KI-getriebener Waffen in der Cyberkriminalität. FraudGPT-Angriffe setzen Geschäfte und Organisationen einem erhöhten Risiko aus, sodass diese in moderne Sicherheitssysteme mit Echtzeiterkennung investieren müssen, um sich effektiv zu schützen.
Schutzstrategien
Um gegen FraudGPT gewappnet zu sein, sind mehrschichtige Verteidigungsstrategien, KI-basierte Sicherheitssysteme und ein erhöhtes Bewusstsein für KI-getriebene Cyberbedrohungen unerlässlich. Organisationen müssen auf dem neuesten Stand bleiben und wachsam gegenüber neu auftauchende, KI-gesteuerte Cyberbedrohungen sein.
Resümee zum Thema FraudGPT
Die Einführung von FraudGPT markiert einen Wendepunkt in der Bedrohungslandschaft, indem sie generative KI gezielt für schädliche Zwecke einsetzt. Mit seinen Fähigkeiten in Phishing, Malware-Erstellung und anderen betrügerische Aktivitäten wird es zu einem mächtigen Werkzeug in den Händen von Cyberkriminellen.
Die Cybersicherheitsgemeinschaft muss nun ihre Abwehrmaßnahmen anpassen und verstärken, um den sich entwickelnden Bedrohungen durch KI-basierte Technologien effektiv entgegenzutreten. Das Ganze wird sich wohl, wie üblich, zu einem weiteren Katz-und-Mausspiel entwickeln.