Industrie-Roboter, automatisierte Prozesse und digitale Gegner in Videospielen: Künstliche Intelligenz ist auf dem Vormarsch – aber wie clever ist sie wirklich? Und wie weit von den teils gruseligen Visionen entfernt, die wir aus dem Science-Fiction-Genre kennen?
von Robert Bannert
Kennen Sie den Turing-Test? Nein, das ist kein Internet-Klickspiel, das Sie mit Ihrem Facebook-Gefolge teilen können. Es sei denn vielleicht, Sie sind selber eine futuristische Künstliche
Intelligenz. Von der Sorte, wie sie Johny Depp in „Transcendence“ spielt. Denn bei der vom britischen Mathematiker Alan Turing schon 1950 erdachten Prüfung soll herausgefunden werden, ob sich
eine Maschine überzeugend als Mensch verkaufen kann. Kommuniziert wird dabei ohne sicht- bzw. hörbaren Kontakt und über eine Tastatur. Ein Proband soll herausfinden, wer von zwei Dialogpartnern
die Maschine und wer der Mensch ist – inzwischen bemühen sich die beiden anderen darum, möglichst glaubhafte Personen abzugeben. Bestanden hat die KI den Test, wenn man am Ende des Dialogs
nicht mit Sicherheit sagen kann, wer von den beiden Gesprächspartnern der Computer war und wer nicht.
Zwar wollten im Laufe der Jahre immer wieder KI-Forscher für sich in Anspruch nehmen, den berühmten Test geknackt zu haben, aber ihre Prüfungs-Konfigurationen haben Turings Original-Setup dabei
stets modifiziert. So hat eine mit „Eugene Goostman“ benannte Software aus Russland 2014 für Aufsehen gesorgt, doch tatsächlich konnte das Programm seine Gesprächspartner nur in zehn von 30
Fällen foppen. Außerdem tarnte sich „Eugene“ als 13-jähriger Ukrainer, der gerade erst damit begonnen hatte, Englisch zu lernen.
Deutlich besser bekommen das die Androiden aus „Detroit: Become Human“ hin: Die künstlichen Existenzen aus dem PS4-exklusiven Movie-Adventure von Quantic Dream sehen nicht nur aus wie Menschen,
sie benehmen sich auch so. In einem Werbevideo ihres fiktiven Herstellers „Cyberlife“ wird sogar damit geworben, dass die Kunstmenschen den Turing-Test mit Links schaffen. Trotzdem ist die Welt
am Ende des Spiels geschockt, als die Plastik-Köpfe eine Revolution anzetteln und Menschenrechte einfordern. Keine schmutzigen Unterhosen mehr waschen möchten und es satt haben, wie Elektro-Autos
an Ladestationen geparkt zu werden.
Roboter-Aufstand verschoben
Tatsächlich sagt der Turing-Test nicht zwangsläufig etwas darüber aus, ob eine den Menschen täuschende Maschine auch wirklich wie einer denkt. Kritiker des Prüfmethode geben zu bedenken, dass
eine erfolgreiche KI ihren Gegenüber auch überzeugen könnte, ohne sich ihrer selbst bewusst zu sein. Z.B. indem sie zuvor ein passendes Set an Kommunikations-Regeln zur Seite gestellt bekommt.
Denn anders als einem Menschen geht es der Maschine immer nur um eins: um das gewünschte Ergebnis.
Unwahrscheinlich also, dass wir uns – wie von David Cage heraufbeschworen – schon in 20 Jahren einer Roboter-Armee gegenübersehen, die mit Fackeln und Raketenwerfern das Wahlrecht
fordert.
Das sieht auch KI-Fan Fabian Westerheide so: Der Unternehmer und Investor gehört zu den Veranstaltern der jährlichen „Rise of AI“-Konferenz, auf der sich rund 600 Experten über den aktuellen
Stand der KI-Forschung und ihre Auswirkungen auf die Gesellschaft austauschen. Er glaubt nicht, dass „KIs werden wie in dem Spiel“. „Die werden nie sein wie Menschen“, erklärt er weiter. „Sie
werden die Welt anders sehen und verstehen wie wir. Und aufgrund ihrer Logik sowie fehlender biologischer Erfahrungen immer ‚bizarr‘ bleiben. Aber wir können wohl mit einer hochentwickelten
Intelligenz rechnen. Einer KI, die uns in vielen Bereichen überlegen ist, während sie auf anderen Feldern sehr dumm und naiv agiert. Die einige außergewöhnliche Fähigkeiten hat, während es ihr
andererseits an emotionaler Intelligenz mangelt.“
Aber wie kommt es, dass wir als Laien bei „Künstlicher Intelligenz“ direkt an Science Fiction denken? An intelligente Roboter, die unsere Kinder pampern – und allgemein an Maschinen, die uns
ähneln? „Wir Menschen halten uns für Gott und wollen unser Ebenbild erschaffen“, vermutet Westerheide. „Und natürlich ist dieses Motiv gerade in Filmen bzw. Büchern besser zu verstehen.
Tatsächlich sind KIs aber einfach intelligentere Maschinen. Sie dienen unseren Zwecken, damit wir in Zukunft vielleicht weniger arbeiten müssen und länger leben können. Sie sollen dem Menschen
dabei helfen, Mensch zu sein. Doch KIs werden keine Menschen. Und wenn wir schon mal dabei sind: Das sollten wir auch gar nicht zu erreichen versuchen.“
Verzweifelt gesucht: Menschlichkeit
Außerdem wäre es laut Westerheide fraglich, ob wir das überhaupt schaffen würden: „Wie sollen wir KIs mit menschlichen Attributen erschaffen können, wenn wir nicht mal selber richtig verstanden
haben, was Menschlichkeit eigentlich ausmacht? Stattdessen werden KIs für uns arbeiten. In der Buchhaltung, im Einkauf, am Fließband, im Lager, hinter dem Steuer von LKWs, auf dem Bau, in der
Planung, bei Controlling oder Marketing. Vielleicht werden KIs auch künftig in Bereichen stärker präsent sein, wo derzeit Menschen arbeiten. Einfach aus dem Grund, dass eine KI nie krank wird,
keinen Lohn verlangt und 24/7 für uns da ist. Aber natürlich ist die Entwicklung solcher KIs sehr teuer, darum braucht sie einen konkreten wirtschaftlichen Nutzen – wie z.B. geringere Kosten
bei mehr Umsatz. Dazu kommen natürlich strategische Interessen wie die totale Überwachung oder Verteidigungs- und Angriffs-KIs für Staaten oder Behörden.“
Ok, das hört sich jetzt aber doch ein bisschen an wie im Spiel. Hier gehen Menschen auf die Straßen, die wegen der Androiden ihre Jobs verloren haben. Und tatsächlich: Moderne KIs sind gerade
erst auf dem Vormarsch, da brechen die Menschen auch schon in Hysterie aus, fühlen sich oder ihren Arbeitsplatz bedroht. Auch die Debatte um das bedingungslose Grundeinkommen ist eng mit der
Automatisierungs-Frage verzahnt.
„Dystopien werden gezeichnet, weil man den Menschen mit Angst schneller näher kommt als mit Hoffnung“, meint Westerheide. „Ja, KI hat das Potential, alles zu ändern. Doch ich kämpfe dafür, dass
dieses Leben durch KIs ein besseres wird. Dass wir eines Tages alle in Elysium leben. Wir Hunger, Krankheit und Armut weltweit überwinden. Natürlich kann KI nicht unsere gesellschaftlichen
Probleme lösen. Aber sie kann uns immerhin die dafür nötigen Werkzeuge zur Hand geben.“
StarCraft 2 zerstört die Welt
Aber wie verhält es sich eigentlich mit der künstlichen Intelligenz in Spielen? Was kann sie und was kann sie nicht? Glaubt man einer Studie des britischen Verteidigungsministeriums, dann sind
die KI-Routinen aus Titeln wie „StarCraft 2“ nämlich kurz davor, die Weltherrschaft zu übernehmen. Oder sie zumindest ins totale Chaos zu stürzen. Denn die lernfähigen Mechanismen könnten
– so das Ministerium – vom Spiel entkoppelt und dann von Terroristen eingesetzt werden, um Behörden zu unterlaufen oder Cyber-Attacken zu starten.
Doch bevor auch unsere einheimischen Verteidigungs-Profis Schnappatmung bekommen: Nein, soweit ist Spiele-KI noch lange nicht. Das erklärt uns u.a. Spieleprogrammierungs-Experte Prof. Dr.
Christoph Lürig von der Hochschule Trier. Denn auch wenn Entwickler und Hersteller ihre Produkte gerne mit Schlagworten wie „adaptiver KI“ bewerben, so ist es mit der Lernfähigkeit von KI-Gegnern
oder -Kumpels in Spielen noch nicht sonderlich weit her. Lürig zufolge sind die sich aus dem Verhalten von Spielern ergebenden Datenmengen kaum groß genug, dass sich eine KI viel von ihnen
abschauen könnte. Wirklich gelernt wird bei KIs nicht in erster Linie im Spiel selber, sondern vor allem während des Entwicklungs-Prozesses: Wie bei „adaptiven KIs“ in Industrie und Forschung
lernen die Programme nämlich am besten, wenn man sie gegen Klone ihrer selbst antreten lässt. Dabei werden mit hoher Geschwindigkeit unzählige Situationen und Szenarien durchlaufen, auf die sich
eine adaptive KI nun einstellen kann. „Die beste Poker-KI z.B. kann auf mehrere Millionen Beispiele zurückgreifen“, erklärt Lürig. „Aber die werden nicht bei der Konfrontation mit Spielern,
sondern dadurch generiert, dass man die KI gegen sich selber spielen lässt. Ähnlich ist man bei der Programmierung einer ‚Go‘-KI vorgegangen: Zunächst wurde das Programm durch die Konfrontation
mit menschlichen Gegnern ‚an’gelernt, aber später hat es gegen sich selber gespielt.“
Wirklich interessant sind solche Mechanismen vor allem für die Entwicklung: Theoretisch lässt sich lernfähige KI verwenden, um z.B. die Spiel-Balance von Multiplayer-Titeln zu testen, QA-Prozesse
zu optimieren oder die Erschaffung gigantischer Spielwelten mithilfe generativer Algorithmen zumindest teilweise zu automatisieren. So könnte eine KI die Spielwelten erschaffen, während eine
zweite darauf spezialisiert wird, den Output der ersten KI mit den Produkten menschlicher Designer zu vergleichen. Verwendet werden dann nur solche Landschaften oder Levels, die den Test durch
die zweite KI bestehen. In Windeseile ein eigenes Spiel erschaffen könnte eine KI deshalb aber lange nicht: Nach wie vor müssten echte Designer den „Kreativ“-Output des Programms überprüfen und
überarbeiten.
Gebremste NPC-Genies
Eine wichtige Rolle übernimmt KI außerdem, wenn das Verhalten von Computer-gesteuerten Figuren getestet wird: Dann liefert die KI z.B. Informationen darüber, wann der geprüfte Charakter wie
agiert. Auf diese Weise soll potentielles Fehlverhalten noch vor Veröffentlichung des Spiels ausgemerzt werden.
Aber wie komplex ist die KI der meist feindlich gesonnenen Figuren überhaupt? „Im Grunde könnte man schon jetzt eine KI programmieren, die den Spieler um Längen schlägt“, vermutet Lürig. „Und ja,
vielleicht auch eine, die sich in ihrem Verhalten nur noch unwesentlich von einem echten Spieler unterscheidet. Aber die Frage ist doch: Will man das überhaupt? In der Singleplayer-Kampagne eines
Ego-Shooters spielt man gegen wesentlich mehr Feinde als in einem Multiplayer-Szenario, außerdem muss man sich noch auf andere Spiel-Aspekte konzentrieren können. Es ist doch ein wesentlicher
Reiz von Spielen, dass man Schwächen, Strategien und Muster des KI-Gegners erlernt, um ihn dann schlagen zu können. Was wäre nun, wenn diese Feinde ihrerseits lernen und ihr Verhalten ständig
ändern könnten? Würde man das noch spielen wollen? Das Ziel muss immer eine KI sein, die Spaß macht!“
Auch das Verhalten von „freundlicher KI“ ist laut Lürig ein „kitzeliges Thema“: „Wenn man KI-Gefährten richtig gut macht, lässt der Spieler früher oder später alles den AI-Buddy machen anstatt
sich selber einzubringen. Macht man sie dagegen zu schwach, muss man sich ständig um den Gefährten kümmern – und das nervt.“
KI-Laufburschen und -Shooter
Ganz ähnlich sieht das Cryteks KI-Programmierer Christian Werle: „Die KI muss in erster Linie plausibel agieren, einen hohen Unterhaltungswert bieten und ein überzeugendes Spielerlebnis liefern.
Spiele-KI im Allgemeinen sollte außerdem verständlich, aber zu einem gewissen Grad auch erlernbar sein, sodass der Spieler nach einer Weile bestimmte Verhaltensmuster wieder erkennt.“
Aber wie genau funktioniert das? Wie geht die KI in einem Shooter überhaupt vor? „Die KI in Ego-Shootern ist meist sehr reaktiv. Das heißt, die Gegner müssen in der Lage sein, ihr aktuelles
Verhalten jederzeit zu ändern“, erklärt Werle, der bei dem Frankfurter Studio z.B. für das Feind-Verhalten in „Hunt: Showdown“ verantwortlich ist. „Jeder Shooter hat da natürlich eigene Nuancen,
aber der generelle Ablauf geht oft so: Zunächst patrouilliert die KI auf vorgegebenen Pfaden, steht einfach nur herum und spielt gelegentlich eine zufällige Animation ab. Sobald sich dann der
Spieler in der Nähe befindet (z.B. im Umkreis von 20 Ingame-Metern) und Sichtkontakt besteht, wechselt die KI in ihren Kampfmodus. Um diesen Übergang plausibel darzustellen, wird er meist von
einer passenden Animation oder Sprachausgabe begleitet. Z.B. könnte der Feind zusammen zucken, die Waffe ziehen und irgendwas rufen. Jetzt weiß die KI also, wo sich der Spieler befindet und dass
sie ihn angreifen soll. Dafür sucht sie sich zunächst noch eine gute Kampfposition im näheren Umkreis. Typischerweise werden dafür mehrere potentielle Positionen in bestimmten Abständen in
Erwägung gezogen und nach unterschiedlichen Kriterien bewertet: Bspw. sollte die neue Stellung möglichst nahe zur aktuellen sein, zusätzlich sollten sich Deckungen in der Nähe befinden. Außerdem
darf sie nicht hinter Wänden liegen, weil die KI sonst keine freie Schussbahn hätte. Am Ende bekommt man nun eine Liste von Positionen mit jeweils unterschiedlichen Gesamtbewertungen – und
die Position mit der höchsten Wertung wird gewählt.“
Klingt zwar nicht magisch, aber trotzdem ganz schön kompliziert. Aber wie komplex ist das eigentlich im Vergleich zu dem, was KI-seitig bei Forschung und Industrie passiert? Sind diese
Disziplinen vielleicht so stark mit der Games-KI verwandt, das man sich sogar untereinander austauschen könnte?
„Ja, hin und wieder kommt es vor, dass Spiele-KI von den Ergebnissen akademischer Forschung profitiert“, erklärt der Crytek-Profi. „So wurde z.B. ein Konzept zur Kollisionsvermeidung in
Charakter-basierte Spiele übernommen, weil es sich als eine sehr praktikable Lösung erwies. Games-KI verfolgt allerdings meist eher einfache Ansätze, was im Grunde das Gegenteil dessen ist, was
bei akademischer Forschung passiert. Das liegt nicht zuletzt daran, dass Spielwelten oft sehr komplex sind und die Reproduzierbarkeit sowie Fehlersuche in solchen Szenarien eine wichtige Rolle
spielt. Umgekehrt kommt es aber auch vor, dass sich Grundkonzepte der Spiele-KI in ernsthafteren Anwendungen wiederfinden, wie beim Proben von Evakuierungs-Szenarien und Gruppendynamik. Und
tatsächlich kommt es auch vor, dass KI-Experten beider Lager in den jeweils anderen Bereich wechseln, um dort erworbenes Fachwissen einfließen zu lassen. Beide Felder haben ihren eigenen Reiz:
Akademische KI versucht gewöhnlich, sehr komplexe Probleme zu lösen und Grenzen zu erweitern, wogegen sich Spiele-KI klar den Unterhaltungswert als Ziel setzt.“
Gefahr Kontrollverlust
Aber vor allem verdeutlicht sie uns, wie KIs eigentlich funktionieren. Sie sind nach wie vor schlichte Programme, die Aktion B ausführen, wenn auf einem Flussdiagramm Voraussetzung A erfüllt
wurde. Manchmal bauen sie dabei Autos zusammen oder werten Statistiken aus, das andere mal steuern sie Gegner-Bots durch virtuelle Welten. Und Angst haben muss man vor ihnen eigentlich nur dort,
wo sie zur Automatisierung von Prozessen eingesetzt werden, die eigentlich in menschliche Hände gehören. „Vielleicht sollte z.B. keine KI darüber entscheiden, wer eine Haftstrafe zu verbüßen hat
oder wann man einen Bankkredit bekommt“, gibt Christoph Lürig zu bedenken. „Denn selbst ein Programmierer kann in solchen Fällen oft nicht mehr sagen, warum sich eine KI gerade wie entschieden
hat. Wenn es um die Bedrohung durch KI geht, dann denken viele direkt an das ‚Terminator‘-Szenario, doch die wahren Gefahren liegen woanders.“
Und solange diese Gefahren vor allem darin bestehen, uns in „Hunt: Showdown“ wegpusten oder von einer riesigen Spinne fressen zu lassen, ist unsere Welt noch in Ordnung.