A Google az idei Moogfest zenei fesztiválon mutatta be a keresőóriás Google Brain csoportjának új rendszerét, a Magentát. A Google Brain a cég mesterségesintelligencia-kutatásait, illetve azok gyakorlati megvalósítását végzi, nekik köszönhető az is, hogy az Inbox, a Photos vagy a Translate jobban működik – most éppen azt szeretnék megtanítani az AI-knak, hogy hogyan kell zenét csinálni, illetve más művészeti formákban alkotni, mindehhez pedig a TensorFlow-t, a Google nyitott forráskódú gépitanuló könyvtárát használják. A kérdések természetesen adottak: képesek-e a gépek zenét és művészetet gyártani? Ha igen, hogyan? Ha nem, miért nem?
Ezen kérdések ugyanakkor nem éppen újkeletűek. A „generatív zene” fogalmát, azaz azon zenét, amelyet egy számítógép készít egy algoritmus és az azt finomhangoló paraméterek segítségével, főként Brian Eno nevéhez kötjük (ő érintett az olyan zenegyártó programokban és appokban, mint a Koan, a Noatikl, a Bloom vagy a Scape), de az ő munkásságán kívül is számos kipróbálható szoftver érhető el, amelyet beindítva elönt minket a művészi öntudat nélkül, de amúgy igen jól áramló hangfolyam: ilyen például a Nodal vagy éppenséggel a Capture, ami egy generatív rockbanda. Igen, pontosan azt csinálja, amit gondolunk, folyamatosan gyárt popzenét, dalszöveget és videót is hozzá, minthacsak az MTV korakilencvenes évekbeli aranykorát kellene megélnünk. Ha mindehhez hozzátesszük, hogy a zene bővebb értelmezésben notáció (gy.k. kotta) és az azt megszólaltató hangok vagy zajok összessége, akkor bármi lehet zene, az ilyen jellegű ambient konstrukcióknál pedig nem kell olyan földhözragadt dolgokkal foglalkoznunk, mint dallamok, hangfekvések, tempók és/vagy struktúrák.
Tekintve, hogy a Magenta demóját a Moogfesten mutatták be, szintetiztátorok ide vagy oda, gyaníthatjuk, hogy az AI nem éppen kísérleti vadhajtásokkal fog foglalkozni (mint amilyen a Gyári rotorok és az üzemi konyha szellőzőrendszere ebédidőben, I-XII.), hanem dallamosabb, zeneként könnyebben felfogható és értelmezhető darabokra. Azt jelenleg még nem tudni, hogy a Google rendszere miként lesz különböző a piacon jelenleg elérhető rendszerektől, beszámolók alapján első látásra nem különbözik tőlük. Az azonban biztos, hogy a cég kritikusan fontosnak tartja a tanulási periódust (ami a big data korában és a Google-t elnézve teljesen érthető), amely során az AI begyűjti a lehető legtöbb zenét, ezeket alkotóelemeire és struktúrái bontja, hogy az ezekből szerzett tudást feldolgozva zenét készíthessen (kérdés, hogy technikailag és koncepcionális szinten milyen szinten beszélhetünk majd remixekről és feldolgozásokról ezek fényében, illetve hogy milyen szerzői jogi rémálmokat ró majd ez a már így is végletekig megzavarodott szakértőkre, de ezekre is csak akkor kapunk majd választ, ha a rendszert működés közben látjuk majd, betanítási periódus után).
Azon pedig ne lepődjünk meg, ha a fentiek ismerősnek tűnnek: a Google DeepDream nevű, vizuális alapon futó AI-rutinja (amelyről mi is beszámoltunk már) hasonló elven működik – a rendszernek ugyan be kellett adagolni egy kezdőképet (vagy más verziókban kettőt), de az ebből érkező képeket meglátva mind rábólinthattunk arra, hogy „ez tényleg más azokhoz képest, mint amit eddig láttunk”. Reméljük, zenék esetében ugyanilyet tapasztalunk majd – DeepDreammel a célra külön gyártott profilarcunkat annak ezer szemével mind erre a projektre tapasztottuk, rovatunk most nagyon bólogat.