Sei dabei: Jeden Monat kopieren +750.000 Anleger die besten Aktienpicks der Profis!Gratis anmelden

Neue Experten-Warnung: Könnten Kontrolle über KI-Systeme verlieren

Veröffentlicht am 22.05.2024, 05:43
MSFT
-
GOOGL
-
META
-
GOOG
-

SAN FRANCISCO (dpa-AFX) - Von angesehenen Experten für Künstliche Intelligenz kommt eine neue eindringliche Warnung vor Gefahren der Technologie. "Ohne ausreichende Vorsicht könnten wir unwiederbringlich die Kontrolle über autonome KI-Systeme verlieren", schrieben die Forscher in einem Text in der neuen Ausgabe der Zeitschrift "Science". Mögliche KI-Risiken seien Cyberattacken in großem Maßstab, gesellschaftliche Manipulation, allgegenwärtige Überwachung und sogar die "Auslöschung der Menschheit". Unter den Autoren sind Wissenschaftler wie Geoffrey Hinton, Andrew Yao und Dawn Song, die zu den führenden Köpfen der KI-Forschung gehören.

Den Autoren des Textes in "Science" machen speziell autonome KI-Systeme Sorgen, die zum Beispiel selbstständig Computer nutzen können, um die ihnen gestellten Ziele zu erreichen. Die Fachleute argumentieren, dass es auch bei Programmen mit guten Absichten unvorhergesehene Nebeneffekte geben könne. Denn so, wie das Training von KI-Software laufe, halte sie sich zwar eng an ihre Spezifikationen - habe aber kein Verständnis dafür, welches Ergebnis dabei herauskommen soll. "Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu behalten", heißt es in dem Text.

Ähnlich dramatische Warnungen gab es schon mehrfach, auch bereits im vergangenen Jahr. Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag sicherten unter anderem US-Konzerne wie Google (NASDAQ:GOOGL), Meta (NASDAQ:META) und Microsoft (NASDAQ:MSFT) einen verantwortungsvollen Umgang mit der Technologie zu.

Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter bei KI-Technologie verantwortungsvoll genug vorgeht, war am Wochenende nochmal stärker in den Fokus gerückt. Der Entwickler Jan Leike, der bei OpenAI dafür zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage. In den vergangenen Jahren seien "glitzernde Produkte" der Sicherheit vorgezogen worden, schrieb Leike bei X. Dabei sei "Software zu entwickeln, die schlauer als Menschen ist, eine von Natur aus gefährliche Unternehmung", warnte er. Man müsse dringend herausfinden, wie man KI-Systeme kontrollieren könne, "die viel smarter als wir sind".

OpenAI-Chef Sam Altman versicherte danach, seine Firma fühle sich verpflichtet, mehr für die Sicherheit von KI-Software zu tun. Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, konterte dagegen, für solche Dringlichkeit müssten sich zunächst auch nur andeutungsweise Systeme abzeichnen, "die schlauer als eine Hauskatze sind". Momentan sei es so, als würde jemand im Jahr 1925 warnen, man müsse dringend den Umgang mit Flugzeugen lernen, die hunderte Passagiere mit Schallgeschwindigkeit über den Ozean befördern. Es werde viele Jahre dauern, bis die KI-Technologie so schlau wie Menschen sein werde - und ähnlich wie bei Flugzeugen würden die Sicherheitsvorkehrungen damit schrittweise einhergehen.

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.