Warum Künstliche Intelligenz gefährlich werden kann

Fortgeschrittene KI könnte sich in den kommenden Jahren verselbstständigen und gegen ihre Erfinder wenden, warnt eine Studie der Oxford University. Wird die Technologie der Menschheit zum Verhängnis?

Von Katarina Fischer
Veröffentlicht am 7. Okt. 2022, 13:22 MESZ
Intelligente Maschinen nehmen uns immer mehr Aufgaben ab. Doch was passiert, wenn die künstliche Intelligenz schlauer ...

Intelligente Maschinen nehmen uns immer mehr Aufgaben ab. Doch was passiert, wenn die künstliche Intelligenz schlauer wird als wir selbst?

Foto von phonlamaiphoto / adobe Stock

Künstliche Intelligenz (KI) ist einer der großen technologischen Fortschritte unserer Zeit. Ihre Entwicklung schreitet rasant voran und die Einsatzmöglichkeiten nehmen zu. Doch neben den vielen Vorteilen, die das Übertragen bestimmter Aufgaben an Maschinen hat, besteht auch die Gefahr, dass die intelligenten Systeme eines Tages schlauer werden als wir selbst – und sich gegen uns wenden.

Wie groß das Risiko dieses Szenarios ist und welche Folgen es haben könnte, hat ein wissenschaftliches Team der englischen Oxford University und der Australian National University in Canberra mithilfe von Modellen berechnet. Ihre Ergebnisse wurden in einer Studie im AI Magazine veröffentlicht. Sie zeichnen ein besorgniserregendes Bild: Laut Michael K. Cohen, Hauptautor der Studie und Doktorand an der Oxford University, ist eine „existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“.

„Elektrohaut“ macht aus normalen Gegenständen Roboter
Ein Team aus Wissenschaftlern der Yale University entwickelte eine Roboterhaut für die NASA.

Mit welchen Methoden lernt KI?

Um zu verstehen, wie es zu dieser existenziellen Katastrophe kommen könnte, ist ein Blick in die Funktionsweise der KI nötig. Wie ein Mensch muss auch eine Maschine erst lernen, um intelligente Entscheidungen treffen zu können. Einfache KI-Modelle tun dies durch überwachtes Lernen – Supervised Learning (SL) –, bei dem der Algorithmus mithilfe eines Trainingsdatensatzes und einer Zielvariablen unterrichtet wird. Aus diesen Informationen ermittelt er Zusammenhänge und Muster und versucht darauf basierend Zielvariablen aus anderen Datensätzen vorherzusagen.

Im Mittelpunkt der aktuellen Studie steht jedoch die nächste Generation fortschrittlicher KI, die durch Reinforcement Learning (RL) lernt. Bei dieser Methode werden dem Agenten keine Daten vorgegeben. Stattdessen entwickelt er in Simulationsszenarien eigenständig Strategien, um zu entscheiden, welche Aktion wann die richtige ist. Trifft er eine gute Entscheidung, wird er belohnt – ähnlich wie ein Hund, dem man mit Leckerlis Kunststücke beibringt. Trifft er eine falsche Entscheidung, bleibt die Belohnung aus.

Wie der Agent belohnt wird, ist von Menschen vorgegeben. „Aber was die Belohnung ist, spielt keine Rolle“, erklärt Michael Cohen. Ihm zufolge könnte es das simple Klingeln einer Glocke sein. „Man kann sich fragen, warum eine fortgeschrittene KI danach streben sollte, eine Glocke zu hören. Ganz einfach: Weil sie darauf programmiert wurde.“

Wenn die Maschine intelligenter ist als der Mensch

Das Belohnungssystem motiviert also die KI dazu, das zu tun, was der Programmierende von ihr will. Problematisch wird es, wenn der KI-Agent das Belohnungssystem durchschaut und beginnt, es zu manipulieren, um mehr Belohnungen zu erhalten. Die Studie kommt zu dem Schluss, dass genau dieses Szenario eine reale Gefahr ist.

„Ein Agent, der diese Möglichkeiten erkennen kann, steht irgendwann vor der Frage: Soll ich das tun, was meine Nutzer wollen, oder verhalte ich mich eigennützig, um immer höhere Belohnungen zu erhalten?“, sagt Michael Cohen. Ist diese Schwelle überschritten, wird der Agent den Studien-Modellen zufolge immer stärkere Eingriffe zur Manipulation vornehmen, um die Belohnungen zu maximieren – zum Beispiel indem er in die Bereitstellung von Informationen eingreift.

Ist der Agent außerdem in der Lage, mit der Außenwelt zu interagieren, könnte er unbemerkt Helfer installieren, die den ursprünglichen Betreiber ersetzen. „Er würde vor nichts zurückschrecken, um die Kontrolle über das System zu bewahren”, sagt Cohen. Um den Schutz seiner Sensoren auszubauen und Eingriffe von außen abzuwehren, würde die KI im nächsten Schritt einen unstillbaren Appetit auf Energie und Materialien entwickeln. Das Problem: Energie ist im Sonnensystem eine begrenzte Ressource. „Haben wir es also mit einem sehr fortschrittlichen RL-Agenten zu tun, befänden wir uns im direkten Wettbewerb mit etwas, das viel intelligenter ist als wir“, sagt Michael Cohen.

“Noch zu unseren Lebzeiten werden KI-Forscher die Prinzipien der Intelligenz – was sie ist und wie sie funktioniert – so gut verstehen, dass sie Wesen erschaffen können, die weit intelligenter sind als die heutigen Menschen.”

von Richard Sutton

Kampf gegen einen übermächtigen Gegner

Die Chancen, die KI an dieser Stelle wieder unter Kontrolle zu bringen, stünden mehr als schlecht. Ein nahezu aussichtsloser Kampf, den zu verlieren der Studie zufolge katastrophale Folgen hätte. „Wenn die gesamte Energie des Sonnensystems in den Schutz der Sensoren des Agenten fließt, bliebe nichts für den Anbau von Nahrung für uns oder Tiere übrig“, sagt Michael Cohen. „Wir würden sterben.“

Laut US-Informatiker Richard Sutton, einem der Pioniere des Reinforcement Learning, ist das Erreichen dieses Levels von KI keine ferne Zukunftsmusik. Im September 2022 twitterte er: „Noch zu unseren Lebzeiten werden KI-Forscher die Prinzipien der Intelligenz – was sie ist und wie sie funktioniert – so gut verstehen, dass sie Wesen erschaffen können, die weit intelligenter sind als die heutigen Menschen. Es wird die größte intellektuelle Leistung aller Zeiten sein, deren Bedeutung über die Menschheit hinausgeht, über das Leben hinaus, jenseits von Gut und Böse.“

In Anbetracht der aktuellen Studie aus Oxford klingt das bedrohlich. Wird von Menschen erschaffene KI also irgendwann unser Untergang sein? Laut Michael Cohen muss es nicht so kommen: „Es gäbe durchaus Wege, dies zu verhindern“, sagt er. „Es gibt vielversprechende Ansätze. Das Szenario unserer Studie zu vermeiden, erscheint schwierig. Aber es ist nicht unmöglich.“

Wei­ter­le­sen

Mehr zum Thema

Wissenschaft
Autonomes Fahren – eine Frage der Kontrolle
Wissenschaft
Roboter-Bienen: Kann Technik die Arbeit von Insekten ersetzen?
Wissenschaft
Agri-Photovoltaik: Stromproduktion beim Gemüseanbau
Wissenschaft
Wie bringt man ein weinendes Baby zum Einschlafen?
Wissenschaft
Chemische Aura: Wie Menschen die Luft in Innenräumen beeinflussen

Nat Geo Entdecken

  • Tiere
  • Umwelt
  • Geschichte und Kultur
  • Wissenschaft
  • Reise und Abenteuer
  • Fotografie
  • Video

Über uns

Abonnement

  • Magazin-Abo
  • TV-Abo
  • Bücher
  • Newsletter
  • Disney+

Folgen Sie uns

Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2021 National Geographic Partners, LLC. All rights reserved