Vor über zwei Jahren hat das zu Google gehörende und auf künstliche Intelligenz spezialisierte Forschungs-Unternehmen DeepMind angekündigt, seine gleichnamige KI für das Spiel gegen
professionelle "StarCraft 2"-Gamer fit zu machen. Kurz zuvor hatte das Programm den weltbesten "Go"-Spieler geschlagen.
Vor ein paar Tagen war es dann endlich soweit: Einer Kooperation mit "StarCraft 2"-Hersteller Blizzard sei Dank durfte DeepMind - unter dem Spieler-Nick "Alphastar" - gegen Dario Wunsch und
Grzegorz Komincz antreten, beides "StarCraft"-Strategen von Weltrang. Wunsch belegt aktuell den 44. Rang, Komincz den 13. Und tatsächlich: Der Roboter gewann haushoch. Der deutsche Spieler wurde
in fünf von fünf Matches geschlagen, sein Kollege aus Polen konnte immerhin eine Partie für sich entscheiden. Dabei wurde Alphastar für das Spiel gegen Menschen bereits spürbar entschärft: So hat
man dem Programm verboten, mehr als 300 Aktionen pro Minute durchzuführen, was in etwa dem Niveau eines menschlichen Top-Gamers entspricht. Dafür hatte man der KI zunächst jedoch ein größeres
Sichtfeld zugestanden als dem Profi-Gamer: Sie konnte anders als der Mensch das komplette Spielfeld auf einmal sehen. Hinter den berüchtigten "Fog of War", der bisher unerschlossenes Terrain
versteckt, konnte sie allerdings ebenso wenig blicken wie die Spieler. Erst als man Alphastars Sichtfeld auf einen ähnlichen Radius einschränkte wie das des Spielers, konnte Komincz eine Partie
gegen die smarte Software gewinnen.
Der Trick dahinter ist ein Reinforcement-Learning-Verfahren: Das Programm hat in beschleunigter Zeit 200 virtuelle Jahre gegen Abbilder seiner selbst - sogenannte Agenten - gespielt, die allesamt
darum bemüht waren, menschliche Spielweisen zu imitieren. Agenten, die ein Match verloren hatten, wurden aussortiert und die Sieger anschließend erneut repliziert, um dann wieder gegen sich
selbst anzutreten.