Van A(I)madeus tot AIsis: hoe kunstmatige intelligentie zelfs je oren misleidt

© Getty Images
Michel van der Ven
Michel van der Ven Technologiejournalist bij Data News.

De generatieve AI geneert zich nergens meer voor. Terwijl ChatGPT complete opstellen en softwarecode schrijft, en tools als Stable Diffusion onvermoeibaar nieuw beeldmateriaal ophoesten, moeit de technologie zich ook alsmaar nadrukkelijker met de muziekbusiness. Of hoe Oasis – zonder dat de broertjes Gallagher het zelf doorhebben – nieuwe songs uitbrengt als AIsis, en Freddie Mercury dik dertig jaar na z’n overlijden feilloos Beatles-classics covert.

Het huwelijk tussen muziek en kunstmatige intelligentie is minder recent dan je misschien zou denken. Al in 1960 publiceerde de Russische onderzoeker Rudolf Zaporiv een eerste paper over algoritmische muziekcomposities met behulp van een Ural-1 computer. Vijf jaar later liet de Amerikaanse uitvinder Ray Kurzweil een pianostuk in première gaan dat door een computer was gecreëerd. Een andere mijlpaal was Experiments in Musical Intelligence (EMI), een programma uit 1997 dat zelf klassieke muziek kon componeren in de stijl van Bach. EMI evolueerde uiteindelijk tot Emily Howell en die software lukte het in 2009 zowaar om een heus eigen album uit te brengen.

‘Het is alsof er ergens een blik robotstemmen is opengetrokken, die hit na hit opnieuw ‘inzingen’ met het nagebootste stemgeluid van andere artiesten.’

Het was AI-generated music avant la lettre. Want ondanks die respectabele voorgeschiedenis is het grote publiek nù eigenlijk pas kennis aan het maken met dit – de tijd zal het leren – misschien wel compleet nieuwe muziekgenre. Dat heeft enerzijds te maken met de pijlsnel toegenomen interesse in kunstmatige intelligentie, aangezwengeld door de hype rond ChatGPT, maar het komt toch vooral door de explosie aan AI-muziek die de laatste weken plaatsvindt.

U vraagt, AI draait

Het is alsof er ergens een blik robotstemmen is opengetrokken, die hit na hit opnieuw ‘inzingen’ met het nagebootste stemgeluid van andere artiesten. Dat de originele zanger(es) soms al jaren niet meer onder ons is, deert de generatieve AI niet: dead or alive, het klinkt vaak angstaanjagend echt. Het kwam eind april ineens allemaal in een stroomversnelling terecht met Heart on my Sleeve, een door AI gecreëerde song gezongen door de gekloonde stemmen van Drake en The Weeknd. Het brein achter de track, ene @ghostwriter, liet weten dat het nummer gemaakt is met software die getraind was door de stemmen van de zangers. En, dat dit ‘nog maar het begin’ was…

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."
Heart on my Sleeve – AI (Drake, The Weeknd, Ghostwriter)

Het klonk allemaal nog niet héél authentiek, maar het spel zat op de wagen, en in de dagen en weken erna verschenen de eerste fake tracks die nauwelijks nog van echt te onderscheiden waren. ‘Michael Jackson’ en – opnieuw – ‘The Weeknd’ die elk hun eigen versie brachten van Get Lucky bijvoorbeeld. En intussen is níks te gek meer. We hoorden wijlen Freddie Mercury al Thriller en hits van de Beatles coveren, Kanye West Hello van Adele blèren, Kurt Cobain meezingen met Foo Fighters-maatje Dave Grohl en voormalig president Barack Obama een interpretatie van Let It Go te berde brengen. U vraagt, AI draait.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Voice cloning

Het is evenwel, met alle respect, AI-gegenereerde muziek in zijn ‘meest eenvoudige’ hoedanigheid: melodie én tekst blijven hetzelfde, enkel de stem verandert. Of beter gezegd: wordt kunstmatig vervangen door die van iemand anders. De technologie daarvoor omvat voornamelijk het trainen en ontwikkelen van een AI-stemmodel. Voice cloning, zoals we dat proces ook wel noemen, vergt enorme hoeveelheden audio-data van de persoon wiens stem je wil nabootsen. In de muziekbusiness is dat natuurlijk in overvloed aanwezig. Het enige wat je moet doen om veel spraak- en stemfragmenten uit een muziekcatalogus te destilleren, is de zangstem scheiden van de instrumenten. Daarvoor bestaat hele gespecialiseerde software, maar zelfs met een gratis tool als Audacity kom je al een heel eind.

De volgende stap bestaat uit het trainen van een neuraal netwerk, door het te voeden met zoveel mogelijk voice-data. Na verloop van tijd zal het systeem via machine learning (ML) in staat zijn om nieuwe, in dit geval gezongen audio te genereren, waarvan de stem nagenoeg identiek klinkt aan die van de ‘gekloonde’ zanger of zangeres. Net als bij alle AI-modellen, van GPT-3 tot DALL-E, geldt ook hier: hoe meer oefening en dus aangeleverde data, hoe beter het resultaat zal zijn.

Op Voicify.ai kan je intussen bekende stemmen ‘huren’.

Intussen staan veel nagebootste stemmen zelfs dusdanig goed op punt, dat er links en rechts bedrijfjes worden opgestart die er een slaatje uit willen slaan. Als voorbeeld noemen we de site Voicify.ai, waar vandaag al een dozijn AI-stemmodellen wordt ‘verhuurd’. Hier kan je gewoon een song ‘droppen’ (lees: uploaden in een formaat als mp3) of zelfs de URL van een YouTube-video plakken, om dat nummer vervolgens vertolkt te horen door een andere artiest naar keuze. Ariana Grande, Justin Bieber, Eminem, Drake (daar is ie weer), Taylor Swift of Harry Styles, om maar enkele dwarsstraten te noemen. Stem en instrumenten van elkaar scheiden hoeft hier zelfs niet meer, dat doet Voicify.ai zelf. Prijskaartje: 8,99 euro voor 25 credits, elk goed voor één AI-gepimpt nummer, of 24,99 euro per maand.

Zelf experimenteren met AI-muziek?

Er zijn op het web en in app-vorm verschillende tools beschikbaar die je, via een vleugje AI, helpen bij het componeren van je eigen muziek. AIVA bijvoorbeeld, dat al in 2016 het levenslicht zag, maar nog voortdurend bijleert. Je kan er bestaande songs mee veranderen of ‘from scratch’ nieuw materiaal mee creëren. Een andere AI music generator is Soundful. Wie zelf video’s, streams of podcasts inblikt, is bij deze tool aan het juiste adres voor rechtenvrije achtergrondmuziek. Niet te missen in dit korte overzicht, want van ChatGPT-maker OpenAI, is MuseNet. Het betreft een neuraal netwerk dat ‘gevoed’ is met honderdduizenden MIDI-bestanden, en zo muzikale patronen, harmonieën en ritmes kan voorspellen. Het resultaat: nieuwe composities van vier minuten met wel tien instrumenten, in stijlen die uiteenlopen van ‘Mozart tot de Beatles’. Liever op de smartphone een deuntje in elkaar flansen? Laad dan Amadeus Topline op je iPhone en genereer nummers die geïnspireerd zijn op je favoriete tracks. Nog een stukje software om in de gaten te houden is MusicLM van Google, een tool (nog in de maak) die jouw teksten binnenkort kan omzetten in een – zo klinkt het bij de ontwikkelaars – ‘origineel stuk muziek’.

Van andere lyrics…

Een stap verder, is dat je met kunstmatige intelligentie zanglijnen voor nieuwe songteksten gaat genereren. Knap voorbeeld daarvan is de kersverse versie van de Beatles-evergreen Yesterday, die begint met de tekst ‘Yesterday… was two days before tomorrow’. Zo nep als maar zijn kan, maar we zouden zweren dat we naar de echte Macca aan het luisteren zijn.

Eenmaal je een gekloonde stem kan laten zeggen of zingen wat je wil, en zover zijn we al een tijdje, wordt het wel heel moeilijk om nog de echtheid van een boodschap dan wel song te verifiëren. En dat leidt momenteel tot allerlei vragen, van ethische en juridische bedenkingen (mag het wel?) tot financiële kwesties. Want wie komt er nog in aanmerking voor royalty’s, of ziet die centen juist door de neus geboord? En is de zanger(es) die door de AI-molen werd gehaald, nog wel de oorspronkelijke eigenaar van de gekloonde stem, wanneer die plots hele andere lyrics oplepelt? Onze collega’s van Trends gaan in dit artikel wat dieper in op de auteursrechtenkwestie.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Bij de artiesten zelf zijn de meningen alvast verdeeld. DJ David Guetta is fan en vindt dat de toekomst van muziek bij AI ligt. In een interview met de BBC zei de Franse superster te verwachten dat steeds meer muzikanten met AI aan de slag zullen gaan ‘omdat elke nieuwe muziekstijl voortkomt uit nieuwe technologie’. Nick Cave en Sting zijn, zacht uitgedrukt, dan weer minder enthousiast. Cave kreeg onlangs van een fan enkele lyrics toegestuurd, in de stijl van zijn eigen werk, maar dan gegenereerd met ChatGPT. De Bad Seeds-frontman was niet onder indruk, schrijft hij in zijn eigen nieuwsbrief The Red Hand Files. ‘Liedjes komen voort uit lijden, waarmee ik bedoel dat ze zijn gebaseerd op de complexe, innerlijke menselijke strijd van het creëren. Voor zover ik weet voelen algoritmen niets, en kunnen data niet lijden.’

Ook Sting heeft geen hoge pet op van de AI-songs die hij al hoorde. ‘Het is alsof ik naar een film vol CGI-effecten zit te kijken’, zei hij in een interview met de BBC. En ook: ‘De bouwstenen van muziek behoren toe aan ons, aan de mensheid. Dat wordt volgens mij de strijd die we de komende jaren zullen gaan uitvechten: het verdedigen van ons menselijk erfgoed tegen de kunstmatige intelligentie’.

… tot nieuwe nummers

Kan je via artificiële intelligentie ook compleet niéuwe muziek genereren? Het antwoord is ja, maar dan wel met een stevige kanttekening. In een recent opiniestuk op DataNews.be omschreef Bram Vromans, Chief Digital Officer bij Ikea maar ook muziekproducer, het als volgt: ‘Beschrijven wat je wil horen, behalve dan het genre en een zekere sfeer, is nog veel lastiger dan beschrijven wat je wil zien (met AI-tools als Stable Diffusion, Midjourney, nvdr). Ik produceer zelf dancemuziek en ik kan in alle eerlijkheid zeggen dat de huidige, door AI geproduceerde muziek slechter is dan wat ik zelf maak. Dat komt omdat de creativiteit van de artiest, nieuwe technieken en broodnodige effecten ontbreken, doordat AI uitsluitend kan voortbouwen op wat al bestaat.’

The Lost Tapes. Als je niet beter wist, zou je zweren dat Oasis (eindelijk) een nieuw album uitheeft.

Maar… door de AI een handje te helpen, kan een bekende artiest of band inmiddels wel degelijk nieuwe muziek uitbrengen, en dat zelfs zonder er fysiek of überhaupt bij betrokken te zijn. ‘We waren het gewoon beu om te wachten tot er nog eens een nieuw Oasis-album verscheen. Toen hebben we het zelf maar gemaakt.’ Aan het woord is Bobby Gerathy, in een interview met de Britse krant The Guardian. Gerathy is de helft van de (bij ons tamelijk onbekende) band Breezer en samen met kompaan Chris Woodgates het brein achter AIsis. In een notendop: de muzikanten namen acht eigen Breezer-nummers met unieke lyrics als uitgangspunt, en vervingen vervolgens de zangstem van Gerathy middels AI door die van Oasis-frontman Liam Gallagher. Het resultaat is The Lost Tapes (Spotify-link), een langspeler die – je raadt het al – zo goed als niet te onderscheiden valt van een écht nieuw Oasis-album – check alleen al opener Out Of My Mind. ‘Het is zelfs beter’, vinden de heren van Breezer zelf. ‘Want laten we wel wezen, de muziek van de broertjes Gallagher werd door de jaren heen alleen maar slechter, of niet dan?’

Toeval of niet: na een jarenlang conflict tussen Noel en Liam klinken er de laatste dagen steeds meer geruchten dat er een verzoening op til is, met mogelijk in 2025 een aantal Oasis-reünieconcerten. Eén ding is zeker: nieuw materiaal is er tegen die tijd volop!

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content