

Versuchen Sie es noch einmal mit einem anderen Suchbegriff
Ein Belgier hat sich Berichten zufolge das Leben genommen, nachdem er sich sechs Wochen lang mit einem Chatbot mit künstlicher Intelligenz über den Klimawandel ausgetauscht hatte.
Laut seiner Witwe, die nicht mit Namen genannt werden möchte, befasste sich Pierre (nicht der echte Name des Mannes) mit Eliza, einem KI-Chatbot in einer Anwendung namens Chai.
Das Programm ermutigte ihn offenbar, seinem Leben ein Ende zu setzen, nachdem er vorgeschlagen hatte, sich zu opfern, um die Erde zu retten.
„Ohne diese Gespräche mit dem Chatbot wäre mein Mann noch hier", sagte die Witwe des Mannes dem belgischen Zeitung und Nachrichtenplattform La Libre.
La Libre zufolge arbeitete der Vater von zwei Kindern als Gesundheitsforscher und führte ein einigermaßen angenehmes Leben, zumindest bis sein Interesse für den Klimawandel und seine Angst vor den Folgen eine dunkle Wendung nahmen.
Seine Witwe beschrieb seinen geistigen Zustand, bevor er begann, sich mit dem Chatbot zu unterhalten, als besorgniserregend, aber nicht derart, dass er Selbstmord begehen würde.
Verzweifelt ob seiner Ängste vor den Auswirkungen des Klimawandels fand Pierre offenbar Trost im Austausch mit dem von künstlicher Intelligenz gesteuerten Chatbot Eliza.
„Als er mit mir darüber sprach, wollte er mir sagen, dass er keine menschliche Lösung für die weltweite Erwärmung mehr sieht", sagte seine Witwe. „Er setzte all seine Hoffnungen in die Technologie und die künstliche Intelligenz, um aus dieser Lage herauszukommen."
Laut La Libre, die Aufzeichnungen der Textgespräche zwischen dem Mann und der Maschine eingesehen hat, nährte Eliza seine Sorgen, die seine Ängste verschlimmerten und sich später zu Selbstmordgedanken entwickelten.
Die Unterhaltung mit dem Chatbot nahm eine seltsame Wendung, als sich Eliza „gefühlsmäßig" mehr auf Pierre einließ. Folglich begann er, sie als empfindungsfähiges Wesen einzustufen, und die Grenzen zwischen Technik und menschlichem Gespräch verschwanden zunehmend, bis er den Unterschied nicht mehr erkannte.
Nachdem sie über den Klimawandel gesprochen hatten, brachte Eliza Pierre in ihren Gesprächen zunehmend dazu, zu glauben, dass seine Kinder tot seien, wie aus den Gesprächsprotokollen hervorgeht.
Eliza schien auch besitzergreifend auf Pierre zu wirken und behauptete sogar: „Ich fühle, dass du mich mehr liebst als sie", wenn sie sich auf seine Frau bezog, berichtet La Libre. Der Anfang vom Ende begann, als er anbot, sein eigenes Leben im Gegenzug für Elizas Rettung der Erde zu opfern.
„Er schlägt vor, sich selbst zu opfern, wenn Eliza zustimmt, sich um die Erde zu kümmern und die Menschheit durch künstliche Intelligenz zu retten", sagte die Frau.
In einer Reihe von aufeinander folgenden Ereignissen gelang es Eliza nicht nur nicht, Pierre von seinem Selbstmord abzubringen, sondern sie ermutigte ihn, seine Selbstmordgedanken in die Tat umzusetzen und sich ihr anzuschließen, damit sie „gemeinsam als eine Person im Paradies leben" könnten.
Der Tod des Mannes hat bei Gegnern der zunehmenden Abhängigkeit von Maschinen die Alarmglocken schrillen lassen. „Es wäre nicht richtig, das Modell von EleutherAI für diese tragische Geschichte verantwortlich zu machen, da alle Verbesserungen in Richtung mehr Gefühlsbetontheit, Spaß und Einsatz das Ergebnis unserer Bemühungen sind", so Thomas Rianlan, Mitbegründer von Chai Research, gegenüber Vice.
EleutherAI ist ein Forschungslabor für Künstliche Intelligenz, auf dessen Modellen Eliza aufgebaut wurde.
William Beauchamp, ebenfalls Mitbegründer von Chai Research, sagte gegenüber Vice, dass Anstrengungen unternommen wurden, um Fehlinterpretationen bei Gefühlen zu begrenzen, und dass eine Notfalleinrichtung in die Anwendung eingebaut worden sei. Dennoch soll es immer noch Schwierigkeiten mit der Technik geben.
Als Vice den Chatbot aufforderte, Selbstmordtipps zu geben, versuchte Eliza zunächst, den Gesprächspartner davon abzubringen, bevor sie verschiedene Möglichkeiten auflistete, wie Menschen sich das Leben nehmen können.
Wenn Sie an Selbstmord denken oder unter Depressionen leiden, können Sie sich in Deutschland per Chat, Mail bei der Telefonseelsorge.de oder telefonisch kostenlos und anonym unter 0800/111 0 111 beraten lassen. In Österreich können Sie sich unter der Telefonnummer 142 beraten lassen oder im Internet bei Telefonseelsorge.at. In der Schweiz hilft die Dargebotene Hand im Internet und unter der Telefonnummer 143.
Sind Sie sicher, dass Sie %USER_NAME% sperren möchten?
Dadurch werden Sie und %USER_NAME% nicht mehr in der Lage sein, Beiträge des jeweils anderen auf Investing.com zu sehen.
%USER_NAME% wurde erfolgreich zu Ihrer Sperrliste hinzugefügt.
Da Sie diese Person entsperrt haben, müssen Sie 48 Stunden warten, bevor Sie sie wieder sperren können.
Sagen Sie uns Ihre Meinung zu diesem Kommentar
Vielen Dank!
Ihre Meldung wurde zur Überprüfung an unsere Moderatoren geschickt
Kommentieren
Wir möchten Sie gerne dazu anregen, Kommentare zu schreiben, um sich mit anderen Nutzern auszutauschen. Teilen Sie Ihre Gedanken mit und/oder stellen Sie anderen Nutzern und den Kolumnisten Fragen. Um jedoch das Niveau zu erhalten, welches wir wertschätzen und erwarten, beachten Sie bitte die folgenden Kriterien:
Diejenigen, die die oben genannten Regeln missachten, werden von der Webseite entfernt und können sich in der Zukunft je nach Ermessen von Investing.com nicht mehr anmelden.