Mariusz Herma Sztuczna inteligencja nagrywa płytę
Po latach eksperymentów sztuczna inteligencja zaczyna konkurować z żywymi twórcami muzyki. I można to przeoczyć.
Niedoświadczona życiowo blond nastolatka ucieka z domu. W dalekim mieście przypadkiem spotyka dziewczynę będącą jej przeciwieństwem: ciemne dready, deskorolka, właśnie wyleciała z kolejnej pracy. Postanawiają założyć zespół muzyczny. Ich pierwszy krok do światowej sławy jest równie przypadkowy. Włamują się nocą do sali koncertowej, aby zagrać swój pierwszy utwór na prawdziwym fortepianie. Nie zauważają, że za stołem mikserskim śpi dźwiękowiec. Jeszcze w półśnie wyciąga smartfon i zaczyna filmować, później wrzuca klip do sieci, gdzie staje się natychmiastowym hitem. Filmik ogląda też pewien producent muzyczny, niegdyś rozchwytywany, dziś bezrobotny. Pomiędzy jednym a drugim kieliszkiem znajduje dziewczęta i oznajmia im, że będzie ich menedżerem.
Po tym niecodziennym początku losy Carole i Tuesday toczą się już zgodnie ze współczesnymi standardami. Zakładają sobie konto na Instagramie, które oczywiście nie cieszy się wielkim wzięciem. Nagrywają pierwszy, beznadziejny teledysk. Próbują się wcisnąć na wielki festiwal, co też kończy się porażką. Wreszcie zgłaszają się do telewizyjnego talent show. Ich główną konkurentką jest modelka, która postanowiła „wybić się jako wokalistka”. Wszystkie jej utwory – także zgodnie ze współczesnymi standardami – pisze i aranżuje sztuczna inteligencja.
Muzyka zgodna z pogodą
Seria „Carole&Tuesday” to najnowsza produkcja Shinichiro Watanabe, legendarnego japońskiego twórcy anime, który regularnie manifestuje swoje fascynacje muzyczne. Przygody Carole i Tuesday umieścił na świeżo skolonizowanym Marsie, ale nawet jedyny naprawdę futurystyczny element ich muzycznych perypetii – fakt, że komputery samodzielnie tworzą muzykę, której słuchają masy – okazał się poniekąd spóźniony w stosunku do wydarzeń na Ziemi.
Tuż przed kwietniową premierą tej serii wytwórnia Warner Music ogłosiła, że podpisała kontrakt z firmą Endel. Ten młody berliński start-up tworzy oprogramowanie, które samodzielnie generuje muzykę na podstawie zestawu parametrów, jakie „pobierze” od słuchacza. Takich jak tętno, szybkość chodu, pora dnia, pogoda, temperatura itd. Dzięki temu może zaproponować idealne tło do ćwiczeń, pracy, relaksu czy kierowania samochodem, uwzględniając także położenie (miasto czy wieś?) oraz sytuację na drodze (pusta autostrada czy korek?). Wkrótce ma też sprawdzać, co zaplanowaliśmy na dany dzień, tak by muzyką „odpowiednio przygotować cię na nadchodzące wyzwania”. A już po wszystkim – odpowiednio odprężyć.
Po ośmiu miesiącach negocjacji programiści Endela zgodzili się dostarczyć Warnerowi aż 20 wygenerowanych w ten sposób albumów, wszystkie jeszcze w tym roku (rozmowy trwały tak długo, bo prawnicy Endela kilka razy upewniali się, że kontrakt z Warnerem dotyczy tylko muzyki wygenerowanej przez algorytm, a nie praw do samego algorytmu). Motywem przewodnim pierwszych pięciu „płyt” będzie sen. A jedyną rzeczą, w której algorytm trzeba było poprawić, są tytuły. Te nadawane przez niego wynikają z głównych wytycznych, jakie komputer wykorzysta, i tego, jakie ma być zastosowanie danego utworu. Proponuje więc „Pochmurny poranek relaks” albo „Niedziela wieczór skupienie praca”. Programiści wynajęli zawodowego copywritera, by z tych inspiracji wyprowadził nieco mniej generyczne tytuły, jednocześnie zachowując ich „charakterystyczny funkcjonalno-poetycki klimat”. Mamy więc „Cztery wspomnienia deszczu” albo „Resztki chmur”.
Endel to pierwszy, ale na pewno nieostatni przypadek algorytmu, którego twórczość trafi do katalogów muzycznych wielkich wytwórni. Od lat pole to eksploruje Sony. Jest właścicielem firmy Flow Machines, której system potrafi skomponować piosenkę „w stylu The Beatles” lub jakiegokolwiek innego zespołu, którego muzykę będzie mógł wcześniej przeanalizować. Sony wydało też debiut wirtualnego wykonawcy SKYGGE zatytułowany „Hello World”, czyli „Witaj świecie”. I uruchomiło inkubator dla start-upów, które wprowadzają sztuczną inteligencję do świata muzyki. Podobny projekt prowadzą właściciele legendarnego studia Abbey Road. W sumie tego rodzaju technologie rozwija na Zachodzie co najmniej kilkadziesiąt różnych zespołów programistów, a niewiele wiemy np. o Chinach.
Ten boom to kwestia ostatniej dekady, aczkolwiek już w latach 90. niejaka Emily Howell wydała zbiór partytur 5 tys. symfonii, sonat i kwartetów smyczkowych zatytułowany „5000 Works”. Emily to program stworzony przez naukowca z Uniwersytetu Stanu Kalifornia w Santa Cruz, który przeprowadzał też testy utworów z udziałem żywych filharmoników. Gdy publiczność zgromadzona na sali koncertowej nie była świadoma, kim/ czym jest Emily, wykonania nagradzano owacjami. Jeśli o pochodzeniu dzieł uprzedzano przed występem, część słuchaczy (a szczególnie krytyków) marudziła na mechaniczność tej „bezdusznej” muzyki.
Ścieżka dźwiękowa codzienności
Kontrakt Endela z dużą wytwórnią słusznie jednak uznaje się za precedens. Pokazuje, że po latach eksperymentów rodzi się nowa gałąź przemysłu muzycznego. Tym bardziej że algorytm Endela w 100 proc. odpowiada za muzykę, nikt go nie poprawia. A przykładowo twórczość Howell starannie „redagował” jej wynalazca. „Wygląda to więc tak, jak gdyby wielka wytwórnia podpisała umowę z algorytmem zamiast z ludźmi. A do tego dochodzi szokujący dla wielu fakt, że program jest aż tak hiperwydajny” – zauważa Cherie Hu, amerykańska dziennikarka zajmująca się pograniczem muzyki i technologii. Wspomniane 20 płyt (zawierających 600 krótkich utworów) powstało jeszcze na długo przed podpisaniem kontraktu, w każdej chwili Endel może wygenerować dziesiątki, setki kolejnych soundtracków do rozmaitych czynności i pór dnia. Nawet jeśli początkowe negocjacje z Endelem były długie – zauważa Hu – to teraz firma Warner będzie mogła zapomnieć o niekończących się dyskusjach, jakie musi toczyć z kompozytorami, wykonawcami, producentami i menedżerami… przy okazji każdej płyty. Zamiast angażować kilkadziesiąt osób na kilkadziesiąt dni, wystarczy na kilka godzin zatrudnić kilku programistów.
Taka perspektywa rodzi porównania do automatyzacji w przemyśle czy – już wkraczającej do naszej codzienności – w transporcie. Czy docelowo komputer zastąpi żywych artystów? Czy wytwórnie będą podpisywać kontrakty nie z zespołami muzycznymi, ale z zespołami inżynierów? Sami twórcy algorytmów próbują uspokajać, że te obawy są nieuzasadnione, tak samo jak nietrafione jest najczęściej zadawane w tej dyskusji pytanie: czy algorytm będzie kiedyś lepszy od człowieka? Chodzi raczej o to, by był wystarczająco dobry dla człowieka. I to tylko w tych przestrzeniach czy zastosowaniach, do których człowieka angażować nie warto. Chodzi o tła dźwiękowe do wind, supermarketów, niskobudżetowych reklam lub filmików wrzucanych na YouTube. Wygodniej byłoby poprosić komputer o wygenerowanie podkładu do naszego wakacyjnego wideo niż szukać godzinami odpowiedniej piosenki, a potem martwić się, że ktoś nas pozwie za naruszenie praw autorskich.
Hu podkreśla też, że wspomniane 20 płyt wcale nie powstało „za dotknięciem przycisku”. Prace nad algorytmem, którego w ogóle da się słuchać (o zachwyt wciąż trudno), pochłonęły wiele lat pracy i niemałe nakłady. Endel z jednej strony musiał nauczyć swój program, jak ma interpretować sygnały przekazywane przez człowieka i przekładać je na dźwięki. A z drugiej nakarmić system – stosunkowo tradycyjnymi metodami – tysiącami próbek dźwiękowych, z których mógłby korzystać przy generowaniu nowej muzyki. Część weteranów branży uważa zresztą, że ta technologia powtórzy trajektorię innych wynalazków z ostatniego stulecia: od gramofonu i taśm nagraniowych, przez syntezator i automat perkusyjny, aż po darmowe aplikacje pozwalające nagrać cały album przy użyciu smartfona. Wszystkie te nowinki miały wyeliminować prawdziwych muzyków, a stały się ich narzędziami. I tak dzięki sztucznej inteligencji kompozytorzy mogliby kreować nieskończone dźwiękowe światy – zamiast skończonych utworów – w których każdy słuchacz poruszałby się po własnych ścieżkach. Na przykład brytyjski start-up AI Music od kilku lat doskonali narzędzie, które „modyfikuje charakter istniejących utworów, aby dopasować się do aktualnego kontekstu”. Potrafi więc dostosować tempo piosenki do kroku słuchacza, a głośny rockowy przebój zmienić wieczorem w akustyczną balladę.
Także 20 albumów Endela „nagranych” dla Warnera to tylko skutek uboczny prac nad właściwym marzeniem firmy, jakim jest dostarczanie każdemu słuchaczowi ścieżki dźwiękowej do jego codzienności. Nie chodzi więc o „nagrania”, lecz o generowany na bieżąco soundtrack, który reaguje na najdrobniejsze impulsy dochodzące z otoczenia słuchacza, jak i jego wnętrza. Algorytm ma znać nasze zwyczaje i muzyczne preferencje. Wiedzieć, jaka muzyka na nas działa i w jaki sposób. Polecenie smartfonowi: „Puść mi coś żywego do biegania” przyniesie więc inny efekt w przypadku każdego biegacza – a nawet tego samego, jeśli zmieni się pora, pogoda czy jego stan fizjologiczny. Endel udostępnił już wstępną wersję swojej aplikacji na smartfony z Androidem i iOS, która oferuje tryby „relaks”, „skupienie”, „sen” czy „w biegu”. Ale jej twórcy są przekonani, że prędzej czy później taką funkcję będzie miał każdy serwis streamingowy, na czele ze Spotify – a wiemy już, że w stronę streamingu (w zamian za miesięczny abonament) zmierza przemysł muzyczny.
Obecnie serwisy te zdominowane są przez playlisty tworzone z myślą nie o gatunkach muzycznych, ale właśnie kontekście. Na Spotify są miliony playlist mających w tytułach „relaks”, „trening”, „romantyczny wieczór” albo „poranną pobudkę”. Co charakterystyczne, korzystających z nich osób z zasady nie interesuje, kto (lub co) stoi za danym nagraniem. Mało kto zauważyłby, gdyby wszystkie te playlisty zapełniono dziełami algorytmu Endela. Dlatego zdaniem Hu duże wytwórnie muzyczne wkrótce dołączą do Google, Facebooka czy Ubera w walce o ekspertów od sztucznej inteligencji. Bo nawet jeśli algorytmy nigdy nie dorównają żywym muzykom i ich domeną pozostanie wyłącznie muzyka tła, rynek ten wciąż wart jest miliardy dolarów. A nikogo, kto dzwoni na infolinię, nie interesuje autorstwo muzaka, który słyszy w oczekiwaniu na konsultanta.
Pospolita dusza
„Słyszałem, że tworzycie muzykę bez pomocy sztucznej inteligencji?” – pyta konferansjer talent show, do którego zgłosiły się serialowe Carole i Tuesday. „Tak, zarówno melodie, jak i teksty. Piszemy je razem” – odpowiadają. Już po występie (zagrały kolejną łzawą balladę o miłości) stereotypowo szorstka jurorka programu stwierdza: „W porównaniu z pozostałymi, wyjątkowymi uczestnikami jesteście najnormalniejsze. A raczej pospolite. Najmniej się wyróżniacie. Wasz występ jednak daje wrażenie świeżości i niewinności. Fakt, że zdecydowałyście się konkurować wyłącznie własną muzyką, czyni was wyjątkowymi. Od dawna nie słyszałam utworu skomponowanego bez pomocy sztucznej inteligencji” – konkluduje. I daje dziewczynom przepustkę do kolejnego etapu konkursu.
Są wśród twórców algorytmów tacy, którzy w swoich innowacjach dostrzegają też szansę dla żywych artystów. Nie chodzi tylko o nowe narzędzia, które ułatwią im przelewanie weny na rzeczywiste dźwięki. Ale przede wszystkim o wyraźniejsze niż dotąd zarysowanie granicy pomiędzy muzyką a przemysłem muzycznym. Rynek muzaków do wind i dżingli wkrótce opanują algorytmy, wypierając anonimowych rzemieślników? Cała reszta tylko na tym zyska. Podobną intuicję ma reżyser „Carole&Tuesday”. Telewizyjny występ dziewcząt skomplementował też inny juror: mechaniczny psiak noszący w sobie sztuczną inteligencję: „W waszym wykonaniu było czuć duszę. Choć nie mnie to oceniać”.