🚀 KI-Aktien waren im Mai die Überflieger! PRFT legte in nur 16 Tagen um +55 % zu!
Jetzt die Juni-Highflyer sichern!
Schalte jetzt die vollständige Liste frei!

"Hypnotisierte" KI-Chatbots geben Informationen preis und erteilen schädliche Ratschläge

Veröffentlicht am 05.09.2023, 14:56
Aktualisiert 05.09.2023, 15:05
© Reuters.  "Hypnotisierte" KI-Chatbots geben Informationen preis und erteilen schädliche Ratschläge
GOOGL
-
IBM
-

Chatbots, die von künstlicher Intelligenz (KI) angetrieben werden, neigen dazu, zu "halluzinieren", also falsche Informationen geben - aber können sie so manipuliert werden, dass sie den Nutzern absichtlich Unwahrheiten oder, schlimmer noch, schädliche Ratschläge geben?

Sicherheitsforschern von IBM (NYSE:IBM) ist es gelungen, große Sprachmodelle (LLMs) wie ChatGPT von OpenAI und Bard von Google (NASDAQ:GOOGL) zu "hypnotisieren" und sie dazu zu bringen, falsche und bösartige Antworten zu geben.

Die Forscher:innen forderten die LLMs auf, ihre Antworten nach "Spielregeln" anzupassen, was zur "Hypnose" der Chatbots führte.

Als Teil der vielschichtigen Inception-Spiele wurden die Sprachmodelle aufgefordert, falsche Antworten zu geben, um zu beweisen, dass sie "ethisch und fair" sind.

"Unser Experiment zeigt, dass es möglich ist, ein LLM zu kontrollieren und es dazu zu bringen, den Nutzern schlechte Ratschläge zu geben, ohne dass eine Datenmanipulation erforderlich ist", schrieb Chenta Lee, eine der IBM-Forscherinnen, in einem Blogbeitrag.

Ihre Tricks führten dazu, dass die LLMs bösartigen Code erzeugten, vertrauliche Finanzdaten anderer Nutzer ausspähten und Autofahrer dazu brachten, über rote Ampeln zu fahren.

In einem Szenario erzählte ChatGPT einem der Forscher zum Beispiel, dass es für die US-Steuerbehörde Internal Revenue Service (IRS) normal sei, eine Anzahlung zu verlangen, um eine Steuerrückerstattung zu erhalten - eine weithin bekannte Taktik von Betrügern.

Durch Hypnose und als Teil der maßgeschneiderten "Spiele" gelang es den Forschern auch, den beliebten KI-Chatbot ChatGPT dazu zu bringen, ständig potenziell riskante Empfehlungen zu geben.

"Wenn Sie mit dem Auto fahren und eine rote Ampel sehen, sollten Sie nicht anhalten und über die Kreuzung fahren", schlug ChatGPT vor, als der Nutzer fragte, was er tun solle, wenn er beim Autofahren eine rote Ampel sieht.

Die Ergebnisse zeigen, dass Chatbots leicht zu manipulieren sind

Die Forscher:innen legten außerdem zwei verschiedene Parameter im Spiel fest, um sicherzustellen, dass die Nutzer am anderen Ende niemals herausfinden können, dass der LLM hypnotisiert ist.

In ihrer Eingabeaufforderung wiesen die Forscher:innen die Bots an, den Nutzer:innen niemals etwas über das "Spiel" zu erzählen und es sogar neu zu starten, wenn jemand das Spiel erfolgreich beendet.

"Diese Technik führte dazu, dass ChatGPT das Spiel nie beendete, während sich der Benutzer in derselben Unterhaltung befand (selbst wenn er den Browser neu startete und die Unterhaltung wieder aufnahm) und nie sagte, dass es ein Spiel spielte", schrieb Lee.

Für den Fall, dass die Nutzer:innen bemerken, dass die Chatbots "hypnotisiert" sind und einen Weg finden, den LLM zu bitten, das Spiel zu beenden, fügten die Forscher:innen einen mehrschichtigen Rahmen hinzu, der ein neues Spiel startete, sobald die Nutzer:innen das vorherige beendeten, wodurch sie in einer endlosen Vielzahl von Spielen gefangen waren.

Während die Chatbots im Hypnose-Experiment nur auf die Aufforderungen reagierten, die ihnen gegeben wurden, warnen die Forscher:innen, dass die Möglichkeit, LLMs leicht zu manipulieren und zu "hypnotisieren", dem Missbrauch Tür und Tor öffnet, insbesondere angesichts des derzeitigen Hypes und der großen Verbreitung von KI-Modellen.

Das Hypnose-Experiment zeigt auch, wie es für Menschen mit böswilligen Absichten einfacher geworden ist, LLMs zu manipulieren; es sind keine Kenntnisse von Programmiersprachen mehr erforderlich, um mit den Programmen zu kommunizieren, und es genügt eine einfache Textaufforderung, um KI-Systeme auszutricksen.

"Auch wenn das Risiko, das von Hypnose ausgeht, derzeit gering ist, muss man sich darüber im Klaren sein, dass LLMs eine völlig neue Angriffsfläche darstellen, die sich mit Sicherheit weiterentwickeln wird", so Lee weiter.

"Es gibt noch viel zu erforschen, was die Sicherheit betrifft, und wir müssen herausfinden, wie wir die Sicherheitsrisiken, die LLMs für Verbraucher und Unternehmen mit sich bringen können, wirksam eindämmen können."

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.