Google właśnie rozszerzyło swój model generowania muzyki Lyria 3 o nowy wariant Pro, który potrafi tworzyć utwory trwające nawet trzy minuty. To nie tylko wydłużony limit czasu, ale też zupełnie inny poziom kontroli nad strukturą kompozycji.
Lyria 3 Pro rozumie budowę utworu muzycznego w sposób, którego poprzednie wersje nie oferowały. W praktyce oznacza to, że użytkownik może teraz w prompcie napisać, żeby model dodał intro, zwrotkę, refren i bridge, a system faktycznie się do tego zastosuje. Znika jeden z największych bólów głowy przy AI-generowanej muzyce, czyli chaotyczne, strukturalnie bezładne nagrania, które bardziej przypominały ambientowy szum niż piosenkę.
Gdzie pojawi się Lyria 3 Pro?
Google nie zatrzymuje się na jednej platformie. Lyria 3 Pro trafia jednocześnie do kilku miejsc:
- Vertex AI – wersja enterprise, w publicznym podglądzie, dla firm potrzebujących muzyki na dużą skalę (gry, platformy wideo, narzędzia kreatywne)
- Google AI Studio i Gemini API – dla deweloperów budujących własne narzędzia kreatywne, obok już dostępnego Lyria RealTime
- Google Vids – AI-powered narzędzie do tworzenia wideo; muzyka z Lyrii dopasowuje się do stylu projektu, już od tego tygodnia dla subskrybentów Workspace oraz Google AI Pro i Ultra
- Gemini app – dłuższe generacje dla płatnych użytkowników, z większą przestrzenią na eksperymenty
- ProducerAI – narzędzie dla muzyków, producentów i autorów piosenek, dostępne globalnie dla wszystkich użytkowników (bezpłatnych i płatnych)
AI w studiu nagraniowym: narzędzie czy zagrożenie?
Tu warto się zatrzymać. Google chwali się współpracą z artystami: producent Yung Spielburg używał Lyrii do tworzenia ścieżki dźwiękowej dla krótkometrażowego filmu Google DeepMind „Dear Upstairs Neighbors”, a DJ i producent François K korzystał z modelu w procesie tworzenia nowej piosenki, która wkrótce trafi do dystrybucji.
Lyria 3 Pro to przykład tego, że AI w muzyce zaczyna wychodzić z fazy zabawki i stawać się realnym narzędziem produkcyjnym. Struktura utworu, świadomość gatunkowa, złożone przejścia, to rzeczy, które wcześniej wymagały albo producenta, albo wielu godzin edycji. Pytanie brzmi jednak: czy artyści używają AI jako rozszerzenia swojej kreatywności, czy stopniowo oddają jej coraz większą część procesu twórczego? To nie jest zarzut, to otwarte pytanie, z którym branża muzyczna będzie musiała się zmierzyć. I chyba każdy z nas, kto korzysta z tych narzędzi, powinien sobie regularnie zadawać.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Odpowiedzialność i prawa autorskie
Google podkreśla, że Lyria 3 trenowana jest na materiałach, do których firma ma prawa na mocy umów partnerskich, regulaminu YouTube i obowiązującego prawa. Model nie naśladuje artystów, a jeśli prompt zawiera imię konkretnego twórcy, Lyria traktuje to jako ogólną inspirację, nie jako polecenie kopiowania stylu.
Ważny szczegół: każdy utwór wygenerowany przez Lyria 3 i Lyria 3 Pro jest niewidocznie znakowany watermarkiem SynthID, który pozwala zidentyfikować treści wyprodukowane przez AI od Google. Dodatkowo Google stosuje filtry sprawdzające, czy wygenerowane nagrania nie pokrywają się z istniejącymi utworami.
Music AI Sandbox i współpraca z branżą
Google od dłuższego czasu prowadzi Music AI Sandbox, czyli zestaw eksperymentalnych narzędzi dla muzyków, producentów i autorów piosenek. Wnioski z tej współpracy bezpośrednio wpłynęły na kształt Lyrii 3. To ważne, bo model nie powstał w próżni, ale był szlifowany razem z ludźmi, dla których muzyka to zawód, a nie hobby.
Czy to wystarczy, żeby branża muzyczna nabrała zaufania do AI? Czas pokaże. Na razie Google gra otwartymi kartami, co w tym sektorze jest samo w sobie warte odnotowania.
