😎 Sommerzeit, Hammer-Deals! Bei InvestingPro winken jetzt bis zu 50% Rabatt auf KI-Aktien-TippsJETZT ZUGREIFEN

Chef des ChatGPT-Erfinders spricht sich für KI-Regulierung aus

Veröffentlicht am 16.05.2023, 20:55
© Reuters

WASHINGTON (dpa-AFX) - Der Chef des ChatGPT-Erfinders OpenAI sieht das Risiko der Verbreitung von Falschinformationen mit Hilfe Künstlicher Intelligenz - und hat sich für eine strikte Regulierung ausgesprochen. Allein schon wegen der benötigten massiven Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman am Dienstag in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen.

Altmans OpenAI löste mit dem Text-Automaten ChatGPT sowie der Software, die Bilder auf Basis von Text-Beschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus.

ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet - für den Nutzer aber kein Unterschied erkennbar ist. Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.

Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für Künstliche Intelligenz solle eine Reihe von Sicherheits-Tests vorgesehen werden - etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, "viel bessere Arbeitsplätze" zu schaffen.

Während der Anhörung in einem Senats-Unterausschuss schloss Altmann nicht aus, dass Programme von OpenAI mit der Zeit auch mit Werbung statt wie aktuell im Abo verfügbar sein könnten.

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.