Frische Aktien für Juni! Unsere KI hat gewählt. Tech Stars liegen bei +28,5% dieses Jahr.Unbedingt ansehen

Europol ist besorgt über die Möglichkeiten von ChatGPT für Verbrechen. Hier die Gründe

Veröffentlicht am 09.05.2023, 15:17
Aktualisiert 09.05.2023, 15:35
© Reuters Europol ist besorgt über die Möglichkeiten von ChatGPT für Verbrechen. Hier die Gründe
GOOGL
-
GOOG
-

ChatGPT, die am schnellsten wachsende App aller Zeiten, hat den Menschen die Macht eines großen Sprachgenerators künstlicher Intelligenz (KI) an die Hand gegeben - trainiert auf einer riesigen Datenbank von Informationen aus dem Internet.

Diese neue Fähigkeit hat bereits dazu geführt, dass sich die Art und Weise, wie viele Menschen ihre Arbeit verrichten oder im Internet nach Informationen suchen, verändert hat. Die Technologie von OpenAI weckt sowohl Begeisterung über die vielversprechende Zukunft, die KI bieten kann, als auch Angst vor den Veränderungen, die sie mit sich bringt.

Eine der Befürchtungen im Zusammenhang mit KI-Technologien wie ChatGPT ist, was Kriminelle und andere übelgesinnte Akteure mit dieser Macht anstellen werden.

Das ist es, was Europol, die Strafverfolgungsbehörde der Europäischen Union, in ihrem jüngsten Bericht über ChatGPT mit dem Titel "The impact of Large Language Models on Law Enforcement" untersucht hat.

ChatGPT, das auf OpenAIs GPT3.5-Technologie für große Sprachmodelle basiert, könnte es "böswilligen Akteuren erheblich erleichtern, verschiedene Arten von Verbrechen besser zu verstehen und anschließend auch auszuführen", heißt es in dem Bericht.

Das liegt daran, dass die Informationen, auf die ChatGPT trainiert wird, bereits frei im Internet verfügbar sind. Die Technologie ist in der Lage, Schritt-für-Schritt-Anweisungen zu allen möglichen Themen zu geben, wenn sie die richtigen kontextbezogenen Fragen erhält.

Europol warnt vor den folgenden Arten von Verbrechen, bei denen Chatbots (LLMs) Kriminellen möglicherweise helfen könnten.

Betrug, Nachahmung und Social Engineering

ChatGPT und andere Chatbots wie Bard von Google (NASDAQ:GOOGL) haben die Benutzer mit ihren Fähigkeiten verblüfft, auf der Grundlage von Benutzeraufforderungen menschenähnliche Texte zu jedem Thema zu verfassen.

Sie können den Schreibstil von Berühmtheiten imitieren und einen Schreibstil aus dem eingegebenen Text lernen, bevor sie weitere Texte in diesem Stil verfassen. Dadurch kann das System von Kriminellen genutzt werden, die den Schreibstil einer Person oder einer Organisation imitieren wollen, was beispielsweise für Phishing-Betrügereien genutzt werden könnte.

Europol warnt auch davor, dass ChatGPT dazu benutzt werden könnte, verschiedenen Arten von Online-Betrug Legitimität zu verleihen, z. B. durch die Erstellung von massenhaft gefälschten Inhalten in sozialen Medien, um ein betrügerisches Investitionsangebot zu bewerben.

Eines der sichersten Anzeichen für potenziellen Betrug in der E-Mail- oder Social-Media-Kommunikation sind offensichtliche Rechtschreib- oder Grammatikfehler, die von den Kriminellen gemacht werden, die den Inhalt schreiben.

Mit den Möglichkeiten von LLMs wären selbst Kriminelle mit geringen Englischkenntnissen in der Lage, Inhalte zu erstellen, die diese Warnzeichen nicht mehr aufweisen.

Die Technologie ist auch reif für Propaganda und Desinformationen erstellen, da sie in der Lage ist, Argumente und Narrative in großer Geschwindigkeit zu formulieren.

Cybercrime für Anfänger

ChatGPT ist nicht nur gut im Schreiben von Wörtern, sondern beherrscht auch eine Reihe von Programmiersprachen. Laut Europol bedeutet dies, dass es einen Einfluss auf die Cyberkriminalität haben könnte.

"Mit der aktuellen Version von ChatGPT ist es bereits möglich, grundlegende Tools für eine Vielzahl von bösartigen Zwecken zu erstellen", warnt der Bericht.

Es handelt sich dabei um einfache Tools, mit denen beispielsweise Phishing-Seiten erstellt werden können, aber es ermöglicht Kriminellen mit geringen oder gar keinen Programmierkenntnissen, Dinge zu schaffen, die sie vorher nicht schaffen konnten.

Die unvermeidlichen Verbesserungen der LLM-Fähigkeiten bedeuten, dass die Möglichkeit zu deren krimineller Nutzung in den kommenden Jahren "düstere Aussichten" bietet.

Die Tatsache, dass die neueste Version von OpenAIs Transformer, GPT-4, besser in der Lage ist, den Kontext des Codes zu verstehen und Fehler zu korrigieren, bedeutet, dass dies eine “unschätzbare Ressource" für Kriminelle mit wenig technischem Wissen ist.

Deepfakes haben bereits Auswirkungen in der realen Welt

Die Anwendungsfälle für ChatGPT, vor denen Europol warnt, sind aber nur ein Bereich der KI, der von Kriminellen ausgenutzt werden könnte.

Es hat bereits Fälle gegeben, in denen KI-Fälschungen dazu benutzt wurden, Menschen zu betrügen und zu schädigen. In einem Fall gab eine Frau an, sie sei erst 18 Jahre alt gewesen, als sie entdeckte, dass pornografische Bilder von ihr im Internet kursierten - obwohl sie diese Bilder nie aufgenommen geschweige denn weitergegeben hatte.

Ihr Gesicht war digital zu Bildern des Körpers einer anderen Person hinzugefügt worden. Gegenüber Euronews Next bezeichnete sie es als eine "eine lebenslange Strafe". Ein Bericht von Deeptrace Labs aus dem Jahr 2019 ergab, dass 96 Prozent der gefälschten Online-Inhalte nicht-konsensuelle Pornografie sind.

In einem anderen Fall wurde KI eingesetzt, um den Klang der Stimme einer Person zu imitieren, um deren Familienangehörige zu betrügen, wobei eine Audio-Depfake-Technik verwendet wurde.

Europol schloss seinen Bericht mit der Feststellung, dass es für die Strafverfolgungsbehörden wichtig ist, "an der Spitze dieser Entwicklungen zu bleiben" und den kriminellen Einsatz von KI vorherzusehen und zu verhindern.

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.