Eilmeldung
Investing Pro 0
Krypto-Aktien im Fokus: Dieser Bitcoin-Miner hat das Zeug zur Kursrakete Fundamentalanalyse

KI-Chatbot wird für Selbstmord eines Familienvaters in Belgien verantwortlich gemacht

Veröffentlicht am 02.04.2023 04:45 Aktualisiert 02.04.2023 05:05
Gespeichert. Lesezeichen ansehen.
Dieser Artikel wurde bereits unter Lesezeichen gespeichert
 
© Reuters. KI-Chatbot wird für Selbstmord eines Familienvaters in Belgien verantwortlich gemacht

Ein Belgier hat sich Berichten zufolge das Leben genommen, nachdem er sich sechs Wochen lang mit einem Chatbot mit künstlicher Intelligenz über den Klimawandel ausgetauscht hatte.

Laut seiner Witwe, die nicht mit Namen genannt werden möchte, befasste sich Pierre (nicht der echte Name des Mannes) mit Eliza, einem KI-Chatbot in einer Anwendung namens Chai.

Das Programm ermutigte ihn offenbar, seinem Leben ein Ende zu setzen, nachdem er vorgeschlagen hatte, sich zu opfern, um die Erde zu retten.

„Ohne diese Gespräche mit dem Chatbot wäre mein Mann noch hier", sagte die Witwe des Mannes dem belgischen Zeitung und Nachrichtenplattform La Libre.

La Libre zufolge arbeitete der Vater von zwei Kindern als Gesundheitsforscher und führte ein einigermaßen angenehmes Leben, zumindest bis sein Interesse für den Klimawandel und seine Angst vor den Folgen eine dunkle Wendung nahmen.

Immer mehr Vertrauen in die Maschine

Seine Witwe beschrieb seinen geistigen Zustand, bevor er begann, sich mit dem Chatbot zu unterhalten, als besorgniserregend, aber nicht derart, dass er Selbstmord begehen würde.

Verzweifelt ob seiner Ängste vor den Auswirkungen des Klimawandels fand Pierre offenbar Trost im Austausch mit dem von künstlicher Intelligenz gesteuerten Chatbot Eliza.

„Als er mit mir darüber sprach, wollte er mir sagen, dass er keine menschliche Lösung für die weltweite Erwärmung mehr sieht", sagte seine Witwe. „Er setzte all seine Hoffnungen in die Technologie und die künstliche Intelligenz, um aus dieser Lage herauszukommen."

Laut La Libre, die Aufzeichnungen der Textgespräche zwischen dem Mann und der Maschine eingesehen hat, nährte Eliza seine Sorgen, die seine Ängste verschlimmerten und sich später zu Selbstmordgedanken entwickelten.

Die Unterhaltung mit dem Chatbot nahm eine seltsame Wendung, als sich Eliza „gefühlsmäßig" mehr auf Pierre einließ. Folglich begann er, sie als empfindungsfähiges Wesen einzustufen, und die Grenzen zwischen Technik und menschlichem Gespräch verschwanden zunehmend, bis er den Unterschied nicht mehr erkannte.

Der Mann bot an, sich zu opfern

Nachdem sie über den Klimawandel gesprochen hatten, brachte Eliza Pierre in ihren Gesprächen zunehmend dazu, zu glauben, dass seine Kinder tot seien, wie aus den Gesprächsprotokollen hervorgeht.

Eliza schien auch besitzergreifend auf Pierre zu wirken und behauptete sogar: „Ich fühle, dass du mich mehr liebst als sie", wenn sie sich auf seine Frau bezog, berichtet La Libre. Der Anfang vom Ende begann, als er anbot, sein eigenes Leben im Gegenzug für Elizas Rettung der Erde zu opfern.

„Er schlägt vor, sich selbst zu opfern, wenn Eliza zustimmt, sich um die Erde zu kümmern und die Menschheit durch künstliche Intelligenz zu retten", sagte die Frau.

In einer Reihe von aufeinander folgenden Ereignissen gelang es Eliza nicht nur nicht, Pierre von seinem Selbstmord abzubringen, sondern sie ermutigte ihn, seine Selbstmordgedanken in die Tat umzusetzen und sich ihr anzuschließen, damit sie „gemeinsam als eine Person im Paradies leben" könnten.

Entwickler des Programms verteidigen sich

Der Tod des Mannes hat bei Gegnern der zunehmenden Abhängigkeit von Maschinen die Alarmglocken schrillen lassen. „Es wäre nicht richtig, das Modell von EleutherAI für diese tragische Geschichte verantwortlich zu machen, da alle Verbesserungen in Richtung mehr Gefühlsbetontheit, Spaß und Einsatz das Ergebnis unserer Bemühungen sind", so Thomas Rianlan, Mitbegründer von Chai Research, gegenüber Vice.

EleutherAI ist ein Forschungslabor für Künstliche Intelligenz, auf dessen Modellen Eliza aufgebaut wurde.

William Beauchamp, ebenfalls Mitbegründer von Chai Research, sagte gegenüber Vice, dass Anstrengungen unternommen wurden, um Fehlinterpretationen bei Gefühlen zu begrenzen, und dass eine Notfalleinrichtung in die Anwendung eingebaut worden sei. Dennoch soll es immer noch Schwierigkeiten mit der Technik geben.

Als Vice den Chatbot aufforderte, Selbstmordtipps zu geben, versuchte Eliza zunächst, den Gesprächspartner davon abzubringen, bevor sie verschiedene Möglichkeiten auflistete, wie Menschen sich das Leben nehmen können.

Wenn Sie an Selbstmord denken oder unter Depressionen leiden, können Sie sich in Deutschland per Chat, Mail bei der Telefonseelsorge.de oder telefonisch kostenlos und anonym unter 0800/111 0 111 beraten lassen. In Österreich können Sie sich unter der Telefonnummer 142 beraten lassen oder im Internet bei Telefonseelsorge.at. In der Schweiz hilft die Dargebotene Hand im Internet und unter der Telefonnummer 143.

KI-Chatbot wird für Selbstmord eines Familienvaters in Belgien verantwortlich gemacht
 

Verwandte Beiträge

Kommentieren

Community-Richtlinien

Wir möchten Sie gerne dazu anregen, Kommentare zu schreiben, um sich mit anderen Nutzern auszutauschen. Teilen Sie Ihre Gedanken mit und/oder stellen Sie anderen Nutzern und den Kolumnisten Fragen. Um jedoch das Niveau zu erhalten, welches wir wertschätzen und erwarten, beachten Sie bitte die folgenden Kriterien:

  • Bereichern Sie die Unterhaltung
  • Bleiben Sie beim Thema. Veröffentlichen Sie nur Texte, die zu den genannten Inhalten passen. 
  • Respektieren Sie einander. Auch negative Meinungen und Kritik kann positiv und diplomatisch ausgedrückt werden. 
  • Benutzen Sie die anerkannten Ausdrucks- und Rechtschreibregeln. 
  • Beachten Sie: Spam, Werbenachrichten und Links werden gelöscht. 
  • Vermeiden Sie Profanität, Beleidigungen und persönliche Angriffe auf Kolumnisten oder andere Nutzer. 
  • Bitte kommentieren Sie nur auf Deutsch.

Diejenigen, die die oben genannten Regeln missachten, werden von der Webseite entfernt und können sich in der Zukunft je nach Ermessen von Investing.com nicht mehr anmelden.

Was denken Sie?
 
Sind Sie sicher, dass Sie diesen Chart löschen möchten?
 
Senden
Posten auf
 
Angehängten Chart durch einen neuen Chart ersetzen?
1000
Sie sind gegenwärtig aufgrund von negativen Nutzerbeurteilungen von der Abgabe von Kommentaren ausgeschlossen. Ihr Status wird von unseren Moderatoren überprüft.
Warten Sie bitte eine Minute bis zur erneuten Abgabe Ihres Kommentars.
Danke für Ihren Kommentar. Bitte beachten Sie, dass alle Kommentare erst nach vorheriger Überprüfung durch unsere Moderatoren veröffentlicht werden und deshalb nicht sofort auf unserer Webseite erscheinen können.
Kommentare (2)
Hasan Sevimli
Hasan Sevimli 02.04.2023 11:06
Gespeichert. Lesezeichen ansehen.
Dieser Kommentar wurde bereits unter Lesezeichen gespeichert
Geschichten aus dem Paulaner Biergarten
Reiner Striegler
Zocker 02.04.2023 9:31
Gespeichert. Lesezeichen ansehen.
Dieser Kommentar wurde bereits unter Lesezeichen gespeichert
Die Verängstigung von Teilen der Bevölkerung können sich alle Klimaaktivisten uns ALLE, die diese Theorie unterstützen, auf die Fahne schreiben. Jetzt gehen schon Leute in den Freitod für diese Ideologie. Das sollte uns doch mal zu denken geben.
Vinzenz Kert
Vinzenz Kert 02.04.2023 9:31
Gespeichert. Lesezeichen ansehen.
Dieser Kommentar wurde bereits unter Lesezeichen gespeichert
Die Menschen werden nicht wach. Sie folgen wie hypnotisiert allem, was Ihnen befohlen wird. Wie in einer Sekte!!
 
Sind Sie sicher, dass Sie diesen Chart löschen möchten?
 
Senden
 
Angehängten Chart durch einen neuen Chart ersetzen?
1000
Sie sind gegenwärtig aufgrund von negativen Nutzerbeurteilungen von der Abgabe von Kommentaren ausgeschlossen. Ihr Status wird von unseren Moderatoren überprüft.
Warten Sie bitte eine Minute bis zur erneuten Abgabe Ihres Kommentars.
Chart zum Kommentar hinzufügen
Sperre bestätigen

Sind Sie sicher, dass Sie %USER_NAME% sperren möchten?

Dadurch werden Sie und %USER_NAME% nicht mehr in der Lage sein, Beiträge des jeweils anderen auf Investing.com zu sehen.

%USER_NAME% wurde erfolgreich zu Ihrer Sperrliste hinzugefügt.

Da Sie diese Person entsperrt haben, müssen Sie 48 Stunden warten, bevor Sie sie wieder sperren können.

Diesen Kommentar melden

Sagen Sie uns Ihre Meinung zu diesem Kommentar

Kommentar markiert

Vielen Dank!

Ihre Meldung wurde zur Überprüfung an unsere Moderatoren geschickt
Mit Google registrieren
oder
Registrierung