AlphaGo besiegt den Europameister
Google-Forschern gelingt Durchbruch bei der Programmierung künstlicher Intelligenz
Das alte chinesische Spiel Go galt bislang als zu komplex für Computer. Jetzt aber schlug eine Google-Software einen Go-Meister. Fan Hui fand kein Mittel gegen die raffinierten Züge seines Gegners. Fünfmal spielte der dreifache Go-Europameister gegen AlphaGo, fünfmal musste er sich dem Computerprogramm geschlagen geben. Zum ersten Mal hat damit künstliche Intelligenz bei dem chinesischen Brettspiel gegen einen Profispieler gewonnen.
Bislang hatten sich Programmierer an dem Spiel die Zähne ausgebissen. Dabei wirkt es auf den ersten Blick simpler und überschaubarer als Schach: Es gibt nur schwarze und weiße Steine. Die werden von den Spielern abwechselnd auf das Spielfeld gelegt und nicht mehr bewegt. Ziel ist es, sie so auf die Schnittpunkte von 19 horizontalen und 19 vertikalen Linien zu legen, dass große Gebiete eingekreist und Steine des Gegners umzingelt werden. Es gewinnt der Spieler, der am Ende den größeren Bereich des Spielfeldes kontrolliert.
Wie beim Schach ist die Zahl der möglichen Spielzüge begrenzt und die Information über die Positionen der Steine stets vollständig, so dass sich theoretisch ein optimaler Spielverlauf errechnen ließe. In der Praxis scheitert das jedoch an der extrem hohen Zahl der Spielvarianten. Die besten Go-Programme konnten daher bislang allenfalls Amateure in Verlegenheit bringen. Es macht letztlich wohl den besonderen Reiz dieser Strategiespiele aus, dass ihnen nur mit der richtigen Mischung aus Logik und Intuition beizukommen ist.
Genau dieser Mischung sind Forscher des Google-Konzerns jetzt offenbar einen großen Schritt nähergekommen. »Die Suche nach dem nächsten Zug beruht nicht auf reiner Rechenleistung, sondern auf Verfahren, die mehr der menschlichen Vorstellungskraft ähneln«, sagt David Silver von Google DeepMind, einer Firma, die die Entwicklung künstlicher Intelligenz zum Ziel hat und Ende 2014 von Google gekauft wurde. Details zu ihrer Methode haben Silver und sein 20-köpfiges Team in der Zeitschrift »Nature« veröffentlicht.
Die Google-Forscher stützen sich auf sogenannte Monte-Carlo-Verfahren, bei denen nach dem Zufallsprinzip verschiedene Spielverläufe simuliert und aus den errechneten Ergebnissen vielversprechende Züge identifiziert werden, die das Spiel mit grö- ßerer Wahrscheinlichkeit günstig beeinflussen. Dieses Arbeiten mit Wahrscheinlichkeitswerten statt exakten Berechnungen hat Computer-Go vor etwa zehn Jahren einen großen Schritt vorangebracht. Der Suchbaum, der die möglichen Züge und daraus resultierenden Verzweigungen des Spielverlaufs repräsentiert, blieb aber immer noch zu groß. Um ihn zu verkleinern und handhabbar zu machen, hat Silvers Team das Verfahren mit tiefen neuronalen Netzwerken kombiniert. Diese wurden auf zweierlei Weise trainiert: Zum einen wurden 30 Millionen Spielverläufe aus dem im Internet verfügbaren KGS Go-Server eingespeist, zum anderen spielte das System wiederholt gegen sich selbst und lernte so, welche Züge eher zum Erfolg führen. »Statt auf mehrere hundert mögliche Züge kann AlphaGo sich so auf wenige aussichtsreiche Züge konzentrieren«, erklärt Silver.
AlphaGo soll im März in Seoul gegen den weltbesten Spieler, den Koreaner Lee Sedol, antreten. Hajin Lee, Generalsekretärin der International Go-Federation, sagte: »Ich habe immer noch Zweifel, ob AlphaGo gegen die Top-Spieler der Welt bestehen kann. Aber vielleicht wird das System selbst stärker, wenn es mit einem stärkeren Gegner konfrontiert ist.«