Musikgenies sind berechenbar
Sind Computer bald die besseren Komponisten? Wie es klingt, wenn künstliche Intelligenz Musik macht, ist im neuen Ars Electronica Center zu hören.
Alexa, sag mir, wo’s im Urlaub hingehen soll! Siri, erzähl mir einen Witz! Und Alysia, komponiere mir ein Meisterwerk, aber ein flottes! Künstliche Intelligenz (kurz: KI oder AI) leistet uns in immer mehr Lebensbereichen Gesellschaft. Vieles klingt dabei nach einer Zukunft voller neuer Bequemlichkeiten. In manchen Bereichen stellt sich aber auch die Frage, ob der Mensch bald seine letzten Alleinstellungsmerkmale mit Computern teilen muss, weil sie alles können, was er auch kann, nur schneller und effizienter.
Musik ist so eine Domäne. Programme wie Alysia, Aiva oder Musico, die versprechen, einen vollwertigen Song oder einen durchdachten Soundtrack auf Knopfdruck zu liefern, finden sich im Internet bereits zuhauf. Und nicht allen ihrer Werke ist unbedingt anzuhören, dass sie ein neuronales Netzwerk geschrieben hat.
Ein Unterschied zwischen Maschine und Mensch fällt trotzdem sofort auf: „Es ist doch interessant, dass keiner von Ihnen geklatscht hat“, sagt Gerfried Stocker, künstlerischer Leiter des Linzer Ars Electronica Center beim Rundgang durch die Ausstellung „AI x Music“.
Dabei hat die Musik, die sein Kollege Ali Nikrang soeben präsentiert hat, alle Zutaten eines Bravourstücks – nur dass kein Virtuose am Klavier sitzt. Stattdessen hat das intelligente Programm, das mit dem selbstspielenden Bösendorfer-Konzertflügel 290 Imperial Ceus verbunden ist, die Komposition geschaffen und interpretiert. Fast ohne menschliche Hilfe. Es hat nur ein paar Takte aus Mozarts „Rondo alla Turca“als Input bekommen und den Befehl, diese in die Klangwelt Chopins zu überführen. Den Rest erledigt Musenet allein. So heißt das neuronale Netzwerk, das zum Komponieren auf Zehntausende Beispieldatensätze zurückgreift. Das Tempo, in dem sich die Fähigkeiten berechnender Musikgenies wie Musenet entwickelten, sei schockierend, sagt Ali Nikrang. Zum Vergleich lässt er ein Beispiel hören, das eine künstliche Intelligenz noch 2017 auf dem damals neuesten Stand produziert hat. Es klingt amateurhaft.
„AI x Music“ist einer der Fixpunkte im neu gestalteten Ars Electronica Center, das um vier Millionen Euro umgebaut worden ist und unter dem Motto „Compass – Navigating the Future“die Entwicklung der künstlichen Intelligenz und damit einhergehende gesellschaftliche Fragen in den Mittelpunkt stellt. Nach der Eröffnung des ersten Teils Anfang Juni wurden am Montag in einer zweiten Etappe die weiteren Bereiche präsentiert.
Neben der Musikschau gehören dazu auch die Kunstinstallation „Mirages & Miracles“, die mittels iPad zwischen handfesten Objekten und einer Augmented-RealityUmgebung wandeln lässt, sowie ein Kinderforschungslabor. Junge Besucher können hier etwa einer künstlichen Intelligenz beim Lernen helfen: Das Programm muss Tiere identifizieren, die Kinder aus Duplo-Steinen bauen. Erkennt der Computer die Kreationen mühelos als Affe oder Elefant? Oder müssen dafür noch charakteristische Merkmale hinzugefügt werden? „So beginnen sich die Kinder spielerisch mit dem Prinzip der KI auseinanderzusetzen“, sagt Entwickler Markus Dorninger.
Beim Thema Musik wirft das Ars Electronica Center unterdessen nicht nur Blicke in die Zukunft, sondern schaut fast noch ausführlicher in die Geschichte. Schon im 9. Jahrhundert sei am Traum von musizierenden Maschinen getüftelt worden, sagt Stocker. Eine Rekonstruktion eines 1000 Jahre alten Flötenautomaten aus Bagdad steht im Ausstellungsraum neben einem Wiener Flötenwerk des 18. Jahrhunderts und den sympathisch schrulligen Musikrobotern von Maiwa Denki. In einem Soundlabor sollen Besucher selbst zu Experimenten mit Musik und Maschinen angeregt werden. Im Labor für die Kleinen regt eine Station ebenfalls zum intuitiven Musikmachen mit digitalen Hilfsmitteln an. Komponieren: ein Kinderspiel.