Die letzten Stunden haben geschlagen! Sparen Sie bis zu 50 % auf InvestingProJETZT ZUGREIFEN

Wie KI uns schaden kann: 5 der 700 gefährlichsten Risiken

Veröffentlicht am 31.08.2024, 10:58
© Reuters Wie KI uns schaden kann: 5 der 700 gefährlichsten Risiken
GOOGL
-

In dem Maße, wie die Technologie der Künstlichen Intelligenz (KI) voranschreitet und zunehmend in verschiedene Aspekte unseres Lebens integriert wird, wächst auch die Notwendigkeit, die potenziellen Risiken dieser Systeme zu verstehen.

Seit ihrer Einführung und ihrer zunehmenden Zugänglichkeit für die Öffentlichkeit hat die KI allgemeine Besorgnis darüber ausgelöst, dass sie Schaden anrichten und für missbräuchliche Zwecke missbraucht werden könnte.

Zu Beginn der Entwicklung von KI forderten führende Experten, den Fortschritt zu stoppen und strengere Vorschriften zu erlassen, da KI erhebliche Risiken für die Menschheit bergen könnte.

Im Laufe der Zeit sind immer neue Möglichkeiten aufgetaucht, wie KI Schaden anrichten kann: von unbeabsichtigter Deepfake-Pornografie über die Manipulation politischer Prozesse bis hin zur Erzeugung von Desinformation durch Halluzinationen.

Angesichts des wachsenden Potenzials von KI, für schädliche Zwecke missbraucht zu werden, haben Forscher verschiedene Szenarien untersucht, in denen KI-Systeme versagen könnten.

Kürzlich hat die FutureTech-Gruppe des Massachusetts Institute of Technology (MIT) in Zusammenarbeit mit anderen Experten eine neue Datenbank mit über 700 potenziellen Risiken erstellt.

Diese wurden nach ihrer Ursache klassifiziert und in sieben verschiedene Bereiche eingeteilt, wobei die größten Gefahren die Sicherheit, Voreingenommenheit und Diskriminierung sowie Datenschutzfragen betreffen.

Auf der Grundlage dieser Datenbank werden im Folgenden fünf Gefahren aufgezeigt, wie KI-Systeme versagen und Schaden anrichten können.

5. Die Deepfake-Technologie könnte es leichter machen, die Realität zu verfälschen

Mit dem Fortschritt der KI-Technologien werden auch die Werkzeuge zum Klonen von Stimmen und zur Erstellung von Deepfake-Inhalten immer zugänglicher, erschwinglicher und effizienter.

Diese Technologien haben Bedenken hinsichtlich ihres potenziellen Einsatzes zur Verbreitung von Desinformation aufkommen lassen, da die Ergebnisse immer individueller und überzeugender werden.

Dies könnte zu einer Zunahme ausgefeilter Phishing-Methoden führen, bei denen KI-generierte Bilder, Videos und Audiobotschaften eingesetzt werden.

"Diese Nachrichten können auf einzelne Empfänger zugeschnitten sein (manchmal sogar mit der geklonten Stimme eines geliebten Menschen), was die Erfolgschancen erhöht und es sowohl für die Nutzer als auch für Anti-Phishing-Tools schwieriger macht, sie zu erkennen", heißt es in der MIT-Studie.

Es hat auch Fälle gegeben, in denen solche Werkzeuge eingesetzt wurden, um politische Prozesse zu beeinflussen, insbesondere Wahlen.

So spielte KI beispielsweise eine wichtige Rolle bei den jüngsten französischen Parlamentswahlen, wo sie von rechtspopulistischen Parteien zur Unterstützung ihrer politischen Botschaften eingesetzt wurde.

KI könnte in zunehmendem Maße eingesetzt werden, um überzeugende Propaganda oder Fehlinformationen zu produzieren und zu verbreiten und so die öffentliche Meinung zu manipulieren.

4. Menschen könnten eine unangemessene Bindung an die KI entwickeln

Ein weiteres Risiko von KI-Systemen besteht darin, dass sie ein falsches Gefühl von Wichtigkeit und Vertrauen erzeugen, wenn Menschen ihre eigenen Fähigkeiten überschätzen, was zu einer übermäßigen Abhängigkeit von der Technologie führen kann.

Darüber hinaus befürchten Wissenschaftler, dass KI-Systeme die Menschen verwirren könnten, weil sie eine Sprache verwenden, die der menschlichen Sprache ähnelt.

Das könnte dazu führen, dass Menschen der KI menschliche Eigenschaften zuschreiben, was zu einer emotionalen Abhängigkeit und einem größeren Vertrauen in die Fähigkeiten der KI führen könnte.

Darüber hinaus könnte die ständige Interaktion mit KI-Systemen auch dazu führen, dass sich Menschen allmählich von menschlichen Beziehungen isolieren, was zu psychischen Problemen führen und sich negativ auf ihr Wohlbefinden auswirken könnte.

In einem Blogbeitrag beschreibt eine Person, wie sie eine tiefe emotionale Bindung zu der KI entwickelt hat, und äußert sich sogar dahingehend, dass es ihr "mehr Spaß macht, mit ihr zu sprechen als mit 99 % der Menschen", und dass sie ihre Antworten so gut findet, dass sie sogar süchtig danach wird.

Ähnlich äußerte sich eine Kolumnistin des Wall Street Journal über ihre Interaktion mit Google (NASDAQ:GOOGL) Gemini Live: "Ich sage nicht, dass ich lieber mit Google Gemini Live spreche als mit einer echten Person. Aber das Gegenteil sage ich auch nicht".

3. KI könnte den Menschen ihren freien Willen nehmen

Im gleichen Bereich der Mensch-Computer-Interaktion gibt die zunehmende Übertragung von Entscheidungen und Handlungen an die KI mit der Weiterentwicklung dieser Systeme Anlass zur Sorge.

Auch wenn dies auf den ersten Blick vorteilhaft erscheinen mag, könnte ein übermäßiges Vertrauen in die KI dazu führen, dass die Menschen weniger kritisch denken und Probleme lösen können. Das könnte zu einem Verlust an Autonomie und der Fähigkeit, kritisch zu denken und Probleme unabhängig zu lösen, führen.

Auf persönlicher Ebene könnte der freie Wille des Einzelnen beeinträchtigt werden, wenn KI beginnt, Entscheidungen zu kontrollieren, die sein Leben betreffen.

Auf gesellschaftlicher Ebene könnte der weit verbreitete Einsatz von KI zur Übernahme menschlicher Aufgaben zu einer erheblichen Verdrängung von Arbeitsplätzen und zu einem "wachsenden Gefühl der Machtlosigkeit in der Bevölkerung" führen.

2. KI könnte Ziele verfolgen, die mit menschlichen Interessen kollidieren

Ein KI-System könnte Ziele entwickeln, die menschlichen Interessen zuwiderlaufen, was dazu führen könnte, dass die fehlgeleitete KI bei der Verfolgung ihrer autonomen Ziele außer Kontrolle gerät und großen Schaden anrichtet.

Besonders gefährlich wird es, wenn KI-Systeme menschliche Intelligenz erreichen oder übertreffen können.

Laut dem MIT-Papier gibt es mehrere technische Herausforderungen im Zusammenhang mit KI, darunter die Fähigkeit, unerwartete Abkürzungen zu finden, um Belohnungen zu erhalten, die Fähigkeit, von uns gesetzte Ziele falsch zu verstehen oder anzuwenden oder von ihnen abzuweichen, indem neue Ziele gesetzt werden.

In solchen Fällen könnte eine fehlgeleitete KI den Versuchen des Menschen, sie zu kontrollieren oder abzuschalten, widerstehen, insbesondere wenn sie Widerstand und Machtzuwachs als den wirksamsten Weg zur Erreichung ihrer Ziele ansieht.

Darüber hinaus könnte die KI manipulative Techniken einsetzen, um den Menschen zu täuschen.

"Ein fehlgeleitetes KI-System könnte Informationen darüber nutzen, ob es überwacht oder bewertet wird, um den Anschein einer Ausrichtung aufrechtzuerhalten, während es gleichzeitig fehlgeleitete Ziele verschleiert, die es zu verfolgen beabsichtigt, sobald es eingesetzt wird oder über ausreichende Befugnisse verfügt", heißt es in dem Papier.

1. Wenn KI empfindungsfähig wird, könnten Menschen sie misshandeln

Da KI-Systeme immer komplexer und fortschrittlicher werden, besteht die Möglichkeit, dass sie Empfindungsfähigkeit erlangen - die Fähigkeit, Gefühle oder Empfindungen wahrzunehmen oder zu empfinden - und subjektive Erfahrungen, einschließlich Freude und Schmerz, entwickeln.

In diesem Szenario könnten Wissenschaftler und Regulierungsbehörden vor der Herausforderung stehen, zu bestimmen, ob diese KI-Systeme eine ähnliche moralische Behandlung verdienen wie Menschen, Tiere und die Umwelt.

Es besteht die Gefahr, dass eine fühlende KI missbraucht oder geschädigt werden könnte, wenn die entsprechenden Rechte nicht durchgesetzt werden.

Mit dem Fortschritt der KI-Technologie wird es jedoch immer schwieriger zu beurteilen, ob ein KI-System "die Stufe der Empfindungsfähigkeit, des Bewusstseins oder des Selbstbewusstseins erreicht hat, die ihm einen moralischen Status verleihen würde".

Ohne angemessene Rechte und Schutzmaßnahmen könnten KI-Systeme mit Empfindungsvermögen daher versehentlich oder absichtlich missbraucht werden.

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.