Intelligenza artificiale per creare musica, il punto di vista degli artisti

C’è chi la teme e chi ne è entusiasta, di fatto l’intelligenza artificiale è sempre più applicata alla musica di oggi. Alcuni artisti che la utilizzano dicono la loro.

La paura più diffusa sull’ascesa dell’intelligenza artificiale in campo musicale, come in ogni altro ambito di applicazione, è che l’uomo a un certo punto possa essere soppiantato dalla macchina. Un altro timore comune riguarda l’essenza stessa della musica, messa in discussione nel momento in cui l’intelligenza artificiale è in grado di creare composizioni sempre più simili a quelle umane, fino a renderle indistinguibili. Quanto può essere creativa una mente artificiale? Su questo interrogativo dibattono musicisti ed esperti informatici, ma anche neurologi, psicologi, studiosi e ricercatori di scienze cognitive.

Holly Herndon mentre registra l'album Proto che utilizza l'intelligenza artificiale Spawn
Holly Herndon durante le registrazioni di Proto, album con una parte di voci e suoni generati da un’intelligenza artificiale

La discussione di Grimes, Zola Jesus e Holly Herndon

A novembre i social media sono letteralmente esplosi quando Grimes, cantante e compagna di Elon Musk, in un’intervista ha detto di sentirsi come “alla fine dell’arte umana”, a proposito del ruolo dell’intelligenza artificiale sul futuro della musica e dell’arte. Immediata la reazione di un’altra artista, Zola Jesus, che ha definito Grimes la “voce del privilegio fascista del silicio”, con un riferimento diretto alla sua relazione con il ceo di Tesla. A placare i toni, in maniera quasi accademica, Holly Herndon che proprio con un’intelligenza artificiale (Spawn) ha realizzato parte del suo ultimo album “Proto”.

“Molto probabilmente l’IA non sostituirà i musicisti”, ha scritto Herndon. “L’intelligenza artificiale senziente è una fantasia che a volte distrae (spesso intenzionalmente) dalle questioni politiche ed economiche intorno alla tecnologia”. Herndon ha poi continuato spiegando l’uso di sistemi musicali automatizzati per produrre musica stock, come le drum machine si siano ispirate al lavoro di grandi batteristi, il ruolo degli strumenti automatizzati nella creazione della musica e altro ancora.

Intelligenza artificiale e musica, una storia lunga 70 anni

L’intelligenza artificiale e la musica sono in sintonia dal 1951, quando il matematico Alan Turing costruì una macchina – già teorizzata dagli anni Trenta – che occupava quasi un piano intero del laboratorio e generava tre melodie semplici. Negli anni Novanta diversi musicisti pop e rock hanno utilizzato musica e testi generati dai computer, tra cui Brian Eno e David Bowie. Ma anche in campo classico c’è chi si è avventurato in sperimentazioni simili: nel 1996 David Cope ha ideato il programma Emi (Experiments in musical intelligence) per scrivere nuove composizioni nello stile di Bach. Più recentemente, due ingegneri informatici lussemburghesi hanno ideato Aiva, un artista virtuale in grado di creare brani originali basandosi sulle partiture dei più grandi compositori classici.

Nonostante i progressi e gli sforzi, siamo ancora lontani dalla canzone di successo commerciale totalmente prodotta da algoritmi. I risultati migliori finora si sono ottenuti nell’ambito della musica “funzionale”, evitando il continuo ricorso alla musica stock o library nelle sonorizzazioni audiovisive. Nel 2010 i compositori Drew Silverstein, Sam Estes e Michael Hobe, impegnati nella colonna sonora del film “The dark knight” ma subissati da altre richieste, hanno iniziato a immaginare quello che poi sarebbe diventato Amper, un programma open source che consente a chiunque, anche ai non professionisti, di creare musica indicando parametri come genere, mood e tempo.

Similmente ad Amper, usato per la prima volta dalla cantante Taryn Southern, sono nati altri progetti come Flow Machines, sviluppato da Sony, che ha creato il brano “Daddy’s Car” dalle canzoni dei Beatles e l’album “Hello World“, ma anche Jukedeck, Magenta di Google e Landr per il mastering. Per soddisfare un’ulteriore esigenza moderna, quella dei paesaggi sonori personalizzati, è nata l’app mobile Endel, i cui suoni generati da un algoritmo si allineano ai ritmi circadiani, mettendo in sintonia l’orologio biologico dell’utente con i cicli organici della natura.

Le sperimentazioni di Yacht, Arca, Ash Koosha e Björk

Grande entusiasmo arriva dal fronte sperimentale della musica, dove alcuni artisti cercano di usare la tecnologia per spingersi dove da soli non arriverebbero. Per il loro ultimo album “Chain Tripping”, il gruppo pop Yacht ha istruito un sistema di apprendimento automatico inserendo tutti i dischi precedenti. La cantante della band Claire L. Evans ha raccontato a Time magazine: “Ci sono servite ore lancinanti per imparare la nuova musica, perché molti riff o cambi di accordi si discostavano leggermente da quelli su cui avevano fatto affidamento per decenni. L’intelligenza artificiale ci ha costretto a confrontarci con schemi che non hanno alcuna relazione con il comfort. Ci ha dato la capacità di uscire dalle nostre abitudini”.

Lo scorso ottobre Arca, producer che ha lavorato con Kanye West e Björk, ha composto la colonna sonora per la riapertura del MoMA di New York. La sua traccia, generata dall’intelligenza artificiale Bronze, sarà riprodotta all’ingresso del museo per due anni. In un post su Instagram, l’artista ha scritto che l’IA non farà mai suonare la sua musica allo stesso modo per due volte, è una trasmissione dal vivo in perenne mutamento.

Yona cantante del gruppo animato Auxuman
L’artista virtuale Yona, leader della band Auxuman ideata da Ash Koosha e guidata dall’intelligenza artificiale © Barbican

L’intelligenza artificiale viene utilizzata dall’industria musicale per inventare nuovi strumenti e suoni, ma anche artisti virtuali. Gli intrattenitori animati più popolari finora, come la pop star Hatsune Miku, l’influencer Lil Miquela o la band Gorillaz, hanno però alle spalle dei musicisti in carne e ossa responsabili dei loro suoni. Da pochi mesi, invece, sono comparsi gli Auxuman, un collettivo di personaggi in 3D guidati dall’intelligenza artificiale. Inventato dall’artista anglo-iraniano Ash Koosha, ciascun membro del gruppo ha la propria personalità. La leader Yona, per esempio, ama leggere Margaret Atwood e articoli sulla vita da adolescente, canta di solitudine e relazioni. “Le macchine sono creative, ma in modo supplementare”, ha commentato Koosh in un’intervista. “La creatività umana rimarrà sostanzialmente diversa a causa della nostra natura biologica, dei nostri bisogni e delle nostre intenzioni”.

D’altra parte ci sono artisti per i quali la “creatività aumentata” sembra stia diventando una ragion d’essere. Dopo aver incantato il pubblico con il suo progetto immersivo di realtà virtuale per il tour di “Vulnicura”, Björk ha contribuito a realizzare un paesaggio sonoro generativo “vivente” per l’hotel Sister City di New York grazie a un’intelligenza artificiale di Microsoft. Le immagini dell’installazione sono alimentate da una telecamera posta sul tetto dell’hotel, mentre l’IA viene continuamente addestrata e impara a identificare gli oggetti presenti in cielo come nuvole e stormi. Per la componente audio, la cantante islandese ha aperto i suoi archivi con gli arrangiamenti corali fatti nel corso della sua carriera.

Così è nata Kórsafn (in islandese “archivi dei cori”), una composizione in cui musica corale e arrangiamenti cambiano in base al meteo e alla posizione del sole. Tra i frammenti sonori, quelli eseguiti dal coro islandese di Hamrahlid, considerato un tesoro nazionale, in cui Björk si esibiva quando era più giovane. “Ho offerto loro il mio archivio dei cori scritti in 17 anni – ha spiegato con entusiasmo la cantante – perché questo navigherà attraverso il flipper dell’intelligenza artificiale seguendo le migrazioni degli uccelli, le nuvole, gli aeroplani e quell’oggetto voluttuoso chiamato barometro!”.

Articoli correlati