Insider-Daten freischalten: Bis zu 50% Rabatt auf InvestingProJETZT ZUGREIFEN

Experten forderten eine Pause für KI-Experimente: Wo stehen wir jetzt?

Veröffentlicht am 25.09.2023, 12:42
© Reuters.  Experten forderten eine Pause für KI-Experimente: Wo stehen wir jetzt?
GOOGL
-
TSLA
-
META
-
GOOG
-
SPOT
-

Kann Künstliche Intelligenz (KI) als ein potenziell existenzielles Risiko für die Menschheit angesehen werden? Das behauptet jedenfalls das Future of Life Institute (FLI), das vor sechs Monaten einen offenen Brief veröffentlichte, in dem es eine "sofortige Pause" für große KI-Experimente forderte.

Der Brief entstand, als das öffentliche Interesse an generativer KI immer größer wurde und Apps wie ChatGPT oder Midjourney zeigten, wie die Technologie der Nachahmung menschlicher Fähigkeiten in Schrift und Kunst immer näher kommt.

Für die Unterzeichner des Briefes - darunter etwa Elon Musk, CEO von X, Tesla (NASDAQ:TSLA) und SpaceX, Apple-Mitbegründer Steve Wozniak und der Autor Yuval Noah Harari - war der scheinbar plötzliche Aufstieg der generativen KI der Grund dafür, eine Pause einzulegen. Unternehmen wie ChatGPT's OpenAI und Google (NASDAQ:GOOGL) wurden aufgefordert, die "tiefgreifenden Risiken für die Gesellschaft und die Menschheit" zu bedenken, die ihre Technologie mit sich bringen könnte.

Man kann mit Fug und Recht behaupten, dass die großen Akteure allerdings nicht daran denken, sich eine Pause zu gönnen. Stattdessen haben sich weitere Unternehmen mit ihren eigenen großen Sprachmodellen (Large Language Models, LLMs) in das Rennen um die generative KI eingeklinkt: Meta (NASDAQ:META) brachte Llama 2 heraus und Anthropic präsentierte seinen ChatGPT-Konkurrenten Claude 2.

Unabhängig davon, ob die Warnungen der Tech-Giganten beherzigt wurden oder nicht, markiert der Brief des FLI so etwas wie einen Meilenstein im Jahr 2023, das als das Jahr der KI in die Geschichte eingehen wird.

"Agierende statt generativer KI"

Mark Brakel, der politische Direktor des FLI, sagte, man habe nicht mit einer derartigen Reaktion auf den Brief gerechnet. Die Presse berichtete ausführlich über das Schreiben, und in den Regierungen wurde erneut die Frage aufgeworfen, wie man mit dem raschen Fortschritt der KI umgehen soll. Es gab eine Anhörung im US-Senat, in der das Schreiben zitiert wurde, und das Europäische Parlament gab eine formelle Antwort.

Brakel erklärte gegenüber Euronews Next, dass der bevorstehende globale Gipfel zur KI-Sicherheit im britischen Bletchley Park eine gute Gelegenheit für Regierungen sein werde, dort einzugreifen, wo Unternehmen sich weigern, die Bremse zu ziehen. Für Brakel könnte bald anstelle "generativer KI" die "agierende KI" stehen, mit einer KI, die Entscheidungen treffen und autonom handeln kann.

"Ich glaube, dass das vielleicht die Trendlinie ist - und wir auch erkennen, wie OpenAI fast das gesamte Internet der Texte durchforstet hat", so Brakel. "Wir beginnen, Videos, Podcasts und Spotify (NYSE:SPOT) als alternative Daten-, Video- und Sprachquellen zu nutzen."

Nähern wir uns der Katastrophe?

Brakel weist darauf hin, dass das FLI, das 2014 gegründet wurde und sich mit drei großen Risikobereichen auf zivilisatorischer Ebene befasst hat, "ein bisschen wie die Brieforganisation" geworden ist: KI, Biotechnologie und Atomwaffen.

Auf ihrer Website findet sich ein besonders eindrucksvolles Video, eine aufwendig produzierte fiktive Darstellung einer globalen KI-Katastrophe im Jahr 2032. Inmitten der Spannungen zwischen Taiwan und China führt die Abhängigkeit des Militärs von der KI bei der Entscheidungsfindung zu einem Atomkrieg. Das Video endet damit, wie der Planet mit Atomwaffen übersät ist.

Brakel glaubt, dass wir einem solchen Szenario nähergekommen sind. "Die Integration von KI in die militärische Führung schreitet weiter voran, insbesondere bei den Großmächten. Ich sehe aber auch ein größeres Bedürfnis der Staaten nach Regulierung, vor allem wenn es um die Autonomie konventioneller Waffensysteme geht", so der FLI-Direktor.

Das nächste Jahr sieht nach Ansicht Brakels "vielversprechend für die Regulierung autonomer Systeme wie Drohnen, U-Boote und Panzer" aus. "Ich hoffe, dass die Großmächte dann auch Vereinbarungen treffen können, um Unfälle bei der Steuerung nuklearer Waffen zu vermeiden, die noch eine Stufe sensibler ist, als bei konventionellen Waffen".

Regulierung im Anmarsch

Die großen KI-Unternehmen haben ihre Experimente zwar nicht gestoppt, ihre führenden Köpfe haben die tiefgreifenden Risiken, die KI und Automatisierung für die Menschheit darstellen, jedoch offen zugegeben.

Der CEO von OpenAI, Sam Altman, forderte Anfang des Jahres die Politik in den USA auf, die KI staatlich zu regulieren, und erklärte, seine "schlimmsten Befürchtungen sind, dass wir, die Technologiebranche, der Welt erheblichen Schaden zufügen". Dies könne auf "viele verschiedene Arten" geschehen, fügte er hinzu. Er forderte eine US-amerikanische oder globale Agentur, die die leistungsfähigsten KI-Systeme lizenzieren würde.

Europa könnte sich jedoch als Vorreiter bei der Regulierung von KI erweisen, da das bahnbrechende KI-Gesetz der Europäischen Union in Arbeit ist. Das Europäische Parlament hat sich mit überwältigender Mehrheit (499 Ja-Stimmen, 28 Nein-Stimmen, 93 Enthaltungen) dafür ausgesprochen.

Der Rechtsakt sieht vor, dass KI-Systeme je nach Risikostufe in verschiedene Kategorien eingeteilt werden, wobei die risikoreichsten Arten verboten sind und Systeme mit begrenztem Risiko ein bestimmtes Maß an Transparenz und Aufsicht erfordern.

"Wir sind im Allgemeinen recht zufrieden mit dem Gesetz", sagt Brakel. "Eine Sache, für die wir uns von Anfang an eingesetzt haben, als das Gesetz zum ersten Mal von der Kommission vorgeschlagen wurde, ist, dass es GPT-basierte Systeme regulieren muss. Damals sprachen wir eher von GPT3 als von 4 [OpenAIs Transformator-Modelle], aber das Prinzip bleibt dasselbe, und wir sehen uns einer großen Lobby gegenüber, die sich dagegen ausspricht." Das Narrativ in den USA sei das gleiche wie in der EU, nämlich dass nur die Nutzer von KI-Systemen, die Anwender, wissen sollen, "in welchem Kontext sie eingesetzt werden".

Brakel nennt das Beispiel eines Krankenhauses, das einen Chatbot für den Patientenkontakt einsetzt. "Sie werden den Chatbot einfach von OpenAI kaufen, sie werden ihn nicht selbst entwickeln. Und wenn dann ein Fehler passiert, für den man haftbar gemacht wird, weil man medizinische Ratschläge gegeben hat, die man nicht hätte geben sollen, dann muss man natürlich verstehen, was für ein Produkt man gekauft hat. Ein Teil dieser Haftung sollte "wirklich geteilt" werden.

Während Europa auf die endgültige Formulierung des KI-Gesetzes der EU wartet, könnte der globale KI-Sicherheitsgipfel am 1. November einen Einblick geben, wie führende Politikerinnen und Politiker auf der ganzen Welt die KI-Regulierung in naher Zukunft angehen werden.

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.