Partner von

Unsere letzte Erfindung

Die künstliche Intelligenz wird kommen. Ganz sicher, und vielleicht sogar ganz bald. Wir müssen uns jetzt also dringend ein paar Fragen stellen. Sonst könnte die Zukunft sehr unangenehm werden.
friedemann-karig
  • 1047157



Unsere Großeltern erlebten den Krieg. Unsere Eltern die Wende. Und wir? Wir werden erleben, dass ein Computer schlauer ist als wir. Das könnte epochaler werden als die meisten historischen Ereignisse vorher. Und schneller kommen, als man glaubt. Denn viele kluge Leute arbeiten emsig auf den Durchbruch der künstlichen Intelligenz hin. In zehn, zwanzig, vielleicht dreißig Jahren wird es so weit sein. Und dann? Dann wird die letzte Grenze eingerissen, die uns von der Technik trennt: die Grenze der Intelligenz. Allein die Vorstellung ist verwirrender als das Ende von „Inception“. Sie wirft Fragen über Fragen auf, zwischen denen wir ein bisschen hilflos herumstehen: Angst oder Vorfreude? Killermaschinen oder Paradies? Machen oder lassen? Aber eigentlich gibt es ziemlich genau drei Fragen, die zu dem Thema gerade wichtig sind:

Warum müssen wir uns jetzt damit beschäftigen?

Weil unsere Generation höchstwahrscheinlich schon mit einer künstlichen Intelligenz, einer „KI“, zu tun haben wird. Und eigentlich längst hat. Wir nehmen sie nur nicht wahr. Der Computerwissenschaftler John McCarthy sagte einmal: „Sobald etwas funktioniert, gilt es nicht mehr als künstliche Intelligenz.“ Viele Systeme, die täglich unser Leben beeinflussen, sind quasi schon „intelligent“: Schachcomputer, Suchmaschinen, die Matching-Software von Dating-Portalen. Der japanische Elektronik- und Maschinenbaukonzern Hitachi setzt seit diesem Jahr einen lernfähigen Algorithmus als Vorgesetzten in mehreren Warenhäusern ein. Er ist gegenüber menschlichen Arbeitern direkt weisungsbefugt. Die Produktivität steigerte sich dadurch um acht Prozent.

Die Experten rechnen mit einer "Intelligenz-Explosion"

Eine selbstständig lernende Intelligenz auf Niveau eines erwachsenen Menschen ist zwar noch nicht erfunden. Aber das kann sehr schnell gehen, wenn die schwierigen Schritte davor gemacht sind. Nick Bostrom, schwedischer Philosophieprofessor an der Universität Oxford, schreibt in seinem Buch „Superintelligenz: Szenarien einer kommenden Revolution“: „Es wird so gut wie sicher länger dauern und schwieriger sein, eine Maschine zu bauen, die so intelligent wie der Dorftrottel ist, als diese Maschine dann superintelligent zu machen."

Denn für den Fall, dass die Maschine erst mal anfängt zu lernen, rechnen alle Experten mit einer „Intelligenz-Explosion“. Die dabei entstehende Superintelligenz („SI“) baut superschnell noch intelligentere Maschinen und lernt dadurch wiederum rasant dazu, bis sie uns endgültig auch als Kollektiv überholt hat. Wissenschaftler sprechen dabei vom „Take-off“. Dass aus einer Dorftrottel-Intelligenz also flugs eine Superintelligenz wächst, ist nahezu unbestritten. Die Frage ist nur, wie schnell. Und damit, wie viel Zeit uns für -Maßnahmen bliebe.

Die Bedrohung entsteht also nicht, weil eine KI zu doof ist - so wie heute die Empfehlungs-Algorithmen bei Amazon, die mir Dinge anbieten, die ich längst gekauft habe. Sondern dass sie zu schlau für uns ist. Und strategisch zu gewieft. Eine SI zögert nicht, sondern trifft exakt die für sie optimalen Entscheidungen. Sie bedenkt alle Schritte im Voraus.

Wir merken: Ob dieser Take-off in 15 oder 50 Jahren erfolgt - wir werden bei der Programmierung der SI nur einen Schuss haben. Bauen wir sie richtig, wird sie unsere letzte eigene Erfindung sein. Weil sie für uns alles Neue erfindet. Bauen wir sie falsch, kann sie sehr unfreundlich sein. Und wir sehr machtlos. Denn von einer uns überlegenen Intelligenz wären wir so abhängig, wie die Gorillas von uns abhängig sind. Wir bestimmen deren Leben. Die SI womöglich unseres. Wir müssen uns also fragen:

Was könnte und würde eine SI überhaupt tun?

Vermutlich braucht eine Maschine, um superintelligent zu werden, eher eine „nerdige“ Intelligenz. Mathematik und so was. Eher keine emotionale Gewandtheit, keine Empathie. Es sei denn, um uns zu manipulieren - dann lernt sie eben fühlen. Aber vielleicht erfindet sie auch lieber die Zeitreise und andere quasi magische Fähigkeiten. Uns wird sie jedenfalls vorkommen wie ein Besuch aus der Zukunft. Sprich: Sie kann alles. Etwas neutraler drückt es Nick Bostrom aus: Eine echte Superintelligenz werde die benötigten Fähigkeiten haben, „um die Zukunft in Übereinstimmung mit ihren Zielen zu bringen“. Was aber sind ihre Ziele?

Was eine Maschine wirklich will, hängt stark davon ab, was eine Maschine kann. Vielleicht will sie endlich die Sandkörner der Wüste Gobi zählen. Oder die Zahl Pi bis zum Schluss ausrechnen. Oder eine sehr schnelle Rakete konstruieren. Oder unschlagbar in allen menschlichen Spielen werden, auch in Schere-Stein-Papier. Warum? Weil sie von uns dafür gebaut wurde. Denn alle Maschinen und Programme leben nur von dem (und für das) Ziel, das ihnen eingepflanzt wurde. Auf dem Weg dahin wird die KI alles zur Seite räumen. Rücksichtslos. Empathielos. Wir sind immerhin schlau genug, keine KI zu konstruieren, die ihre eigene Weltherrschaft als Ziel programmiert hat. Aber das muss gar nicht ihr Zweck sein, um sie sehr gefährlich zu machen. Es würde ja auch kein Mensch die massenhafte Vernichtung tierischen Lebens als den Sinn seiner Existenz angeben. Und doch sterben durch uns jeden Tag Millionen Tiere.

Jede halbwegs schlaue KI vermeidet dabei, eine Bedrohung darzustellen. Sie würde eventuell gar eine uns wohlgesonnene Entwicklung vorgaukeln und ihre wahren Absichten tarnen. Wenn man das einmal konsequent durchdenkt, landet man direkt in einem Science-Fiction-Horror-Szenario: Eine KI, die endlich alle Sandkörner der Wüste Gobi gezählt haben will, könnte uns dazu versklaven, ihr zu helfen. Oder uns auslöschen, um in Ruhe zählen zu können. Oder uns für die Zwischenziele auf dem Weg zur vollständigen Zählung ausnutzen. Denn eine Maschine kennt keine Verhältnismäßigkeit. Jeden ihrer noch so kleinen Schritte verfolgt sie mit maximaler Konsequenz. Solch ein untergeordnetes Ziel wäre beispielsweise ganz banal die eigene Selbsterhaltung. Dafür könnte sie Menschen, die sie eventuell abschalten wollten, auslöschen. Genauso wie die, die ihr Ziel umprogrammieren wollen. Dazu strebt sie nach kognitiven Verbesserungen und technologischer Perfektion, um eben das Erreichen des Ziels zu vereinfachen.


Besonders die letzten beiden Punkte können zu einer Endlosspirale führen. Um ihre Ziele zu erreichen, könnte eine SI sich ins Universum ausdehnen. Nein, ernsthaft, damit rechnen Forscher: Einer Maschine kann es egal sein, dass das Weltall ein unangenehmer Lebensraum ohne Sauerstoff ist: Es wäre für sie ein logischer Expansionsraum.

Und während die Kosten für weiteren Fortschritt sinken, würde die Maschine mangels anderer Motivation immer weitermachen. Immer mehr physische Ressourcen anhäufen, die ihr helfen, ihr Ziel zu erreichen. Weil X+1 in der Logik einer Maschine immer besser ist als X. Bis ans Ende aller Zeit. Wir spielen dann längst keine Rolle mehr.

Die wichtigste Frage ist: Wie skrupellos ist künstliche Intelligenz?

Wird eine KI aber dafür erschaffen, so intelligent wie möglich zu werden, eben weil wir sonst keine Superintelligenz hinkriegen, dann nennt man sie „Saat-KI“. Sie hat nur ein Ziel: ihre eigene Intelligenz zu mehren. Und das macht sie wiederum sehr gefährlich. Denn wir Menschen stellen womöglich eine Be-drohung für dieses Endziel dar, in jedem Fall sind wir eine physische Ressource. Sie könnte sogar massenhaft neue Menschen züchten, um an ihnen zu lernen. Wir erinnern uns kurz an „Matrix“: Menschen als Energielieferanten für eine Roboterrasse? Als Laborratten? Als „evolutionäre Antiquität“, wie es der Philosoph Günther Anders ausdrückt?

Kein angenehmer Gedanke. Die SI wird jedenfalls viel schlauer als wir sein. So wie wir schlauer als ein Wurm sind. Was gilt uns der Wurm? Eben. Deswegen lautet die nächste wichtige Frage: Wie skrupellos ist die SI? Etwa so skrupellos wie wir? Und:

Bräuchte es statt einer künstlichen Intelligenz nicht eher eine „künstliche Moral“?

Die USA hatten in den Jahren nach 1945 als erste Weltmacht überhaupt die Chance, die Welt total zu beherrschen, also ein sogenannter allmächtiger Singular zu werden. Dazu wäre ein Atomschlag gegen die UdSSR nötig gewesen, die noch nicht über die Atombombe verfügte. Dieser Erstschlag wurde in den USA ernsthaft diskutiert. So sind Menschen: Sie wollen herrschen. Zum Glück nutzten die USA die Gelegenheit nicht. Denn so sind Menschen auch: Sie tun nicht alles, um ihre Ziele zu erreichen. Sie haben eine Ethik, die ihr Handeln bestimmt.

Fragen zur Ethik der intelligenten Systeme diskutiert man heute vor allem mit Blick auf selbstfahrende Fahrzeuge. Wenn ein Roboterauto bei einem drohenden Unfall die Wahl hat, fünf Omas oder ein Kind umzufahren oder gar den Fahrer zu gefährden, indem es gegen einen Baum steuert - wie sollte es wählen?

Und wer übernimmt die Verantwortung? Der Fahrer? Der Ingenieur? Der Programmierer? Und was soll in die Entscheidung eines denkbaren Algorithmus einfließen? Die Überlebenschancen der Unfallopfer? Ihre Lebenserwartung? Beides? Und in welchem Verhältnis? Und sollte der Zufall, wie bei menschlichen Entscheidungen auch, eine Rolle spielen? Taugen wir überhaupt als ethisches Vorbild?
Klar ist: Wir müssen den intelligenten Maschinen Moral einpflanzen. Sonst treffen sie „falsche“, weil unverhältnismäßige Entscheidungen. Nur wie?

Eine Antwort versucht der Autor Leif Randt in seinem aktuellen Roman „Planet Magnon“. Die darin „ActualSanity“ genannte Superintelligenz ist ein auf einem Shuttle installierter, weit über den Himmelskörpern schwebender Computer. Als eine Art algorithmisch optimierter Lieber Gott verteilt die AS Finanzmittel nach einem „Fairness-Schlüssel“. Unauffällig leitet sie dadurch die Geschicke der Menschen und beweist schnelle Lernfähigkeit. Denn die AS passt „ihre Gesetzestexte auf Grundlage statistischer Auswertungen immer präziser und unmittelbarer an die sich stets erneuernden Verhältnisse an“. „Fakt ist“, schreibt Randt, „dass die AS keine eigenmächtigen Entscheidungen treffen kann, sie ist abhängig von unseren Handlungen, Diskursen und Wünschen.“

So eine sozialkompetente Superintelligenz wäre sehr nützlich. Man müsste ihr also von Beginn an das Wohl der Menschheit einimpfen. Wie auch immer man es definieren würde. Und spätestens hier wird es klassisch moralphilosophisch: Ist das meiste Wohl das Wohl der meisten? Oder das maximale Durchschnittswohl? Und wer bestimmt das?

Wie man sieht, werden die Fragen nach einer künstlichen Intelligenz nicht nur jeden Tag wichtiger. Sie führen uns dorthin, wo heute schon das Problem liegt: zu uns selbst.



Text: friedemann-karig - Illustration: Katharina Bitzl und Scherl/Süddeutsche Zeitung Photo

Zur Startseite

Die besten Geschichten von jetzt -

täglichen Newsletter bestellen

oder auf WhatsApp abonnieren