Come suona la musica del futuro, tra intelligenza artificiale e sensibilità umana

Creare arte e comporre musica grazie a reti neurali artificiali e algoritmi, ma con la stessa sensibilità di un essere umano, non è più utopia. Quando pensiamo all’intelligenza artificiale, il più delle volte la associamo alle attività in cui gli uomini possono facilmente essere rimpiazzati dalle macchine: nei lavori manuali, in quelli che richiedono calcoli

Creare arte e comporre musica grazie a reti neurali artificiali e algoritmi, ma con la stessa sensibilità di un essere umano, non è più utopia. Quando pensiamo all’intelligenza artificiale, il più delle volte la associamo alle attività in cui gli uomini possono facilmente essere rimpiazzati dalle macchine: nei lavori manuali, in quelli che richiedono calcoli complessi o per ottimizzare dati. In realtà anche l’industria creativa beneficia del potenziale offerto dall’IA, in particolare nella composizione musicale. Ed eccoci quindi circondati da colonne sonore di film e videogiochi e playlist di Spotify, tutte composte dai computer, che suonano sorprendentemente bene e, soprattutto, indistinguibili dalle opere umane.

 

Raffigurazione di intelligenza artificiale
La musica del futuro è composta dall’intelligenza artificiale

 

Intelligenza artificiale e musica del futuro

A neanche due anni dalla sua nascita, una startup lussemburghese è riuscita a lanciare Aiva (Artificial intelligence virtual artist), il primo compositore virtuale di musica classica e sinfonica ad essere iscritto in una società per la gestione collettiva del diritto d’autore (Sacem, equivalente francese della Siae). L’intelligenza artificiale, programmata dai due fratelli e ingegneri informatici Pierre e Vincent Barreau, è in grado di comporre brani originali basandosi sulle partiture dei più grandi compositori – come Mozart, Bach, Beethoven, Vivaldi – e potrebbe, in futuro, completare opere rimaste incompiute come la Sinfonia n.8 di Schubert.

 

Gli startupper Pierre e Vincent Barreau hanno lanciato l'intelligenza artificiale Aiva
I fratelli Pierre e Vincent Barreau, ideatori dell’intelligenza artificiale Aiva © Anna Katina

 

Tuttavia, per i fratelli Barreau l’interazione uomo-macchina rimane fondamentale, tanto da affidarsi a musicisti professionisti per verificare i parametri di apprendimento del loro algoritmo prima di ogni registrazione. L’intervento umano è necessario anche in fase di orchestrazione, arrangiamenti e produzione, e grazie al quale Aiva ha già pubblicato un album, Genesis, musica per pianoforte e orchestra.

 

 

La tecnologia dietro Aiva si basa su algoritmi di apprendimento approfondito (deep learning), un tipo di apprendimento automatico (machine learning) in cui interagiscono molteplici reti neurali artificiali, ovvero i sistemi che imitano il funzionamento del cervello umano. Grazie agli algoritmi sviluppati dai Barreau, Aiva analizza oltre 15mila partizioni musicali digitalizzate, dando origine a un modello matematico e intuitivo di musica che viene usato per scrivere nuove composizioni. I brani così ottenuti possono essere eseguiti da musicisti in carne ed ossa, oppure tramite la meno onerosa tecnologia VST o tecnologia dello studio virtuale.

 

“Per creare Aiva ci siamo ispirati al film di fantascienza Lei di Spike Jonze”, racconta Pierre alla Camera di Commercio del Lussemburgo. “Il film narra l’evoluzione di un sistema operativo artificialmente intelligente, capace di provare emozioni umane. In una scena importante, Lei (la voce del sistema operativo che si innamora del suo utente, ndr) si incunea nelle orecchie del protagonista dicendo: ‘Lascia che ti componga una musica!‘”.

 

Joaquin Phoenix protagonista del film Lei (Her) fissa lo schermo del suo computer
Scena del film Lei (Her) di Spike Jonze del 2013, che ha ispirato la nascita di Aiva

 

Da anni l’intelligenza artificiale viene utilizzata per la composizione musicale, talvolta con discreti successi commerciali. L’estate scorsa l’attrice statunitense Taryn Southern, lanciata dal talent American Idol e diventata una star di Youtube, ha debuttato con l’album pop I AM AI, totalmente composto, suonato e prodotto dal programma open source Amper, mentre il contributo della cantante è stato limitato agli arrangiamenti e alla voce.

 

https://youtu.be/XUs6CznN8pw”]https://www.youtube.com/watch?time_continue=2&v=sRudUWG7e7A&has_verified=1

 

Per quanto pubblicizzato come tale, I AM AI non è il primo album fatto con l’intelligenza artificiale. È da metà degli anni Cinquanta che si sperimenta con la musica generata dai computer, dalla prima composizione algoritmica Illiac Suite di Lejaren Hiller al brano Push Button Bertha come risultato della ricerca condotta da Martin Klein e Douglas Bolitho. Il pioniere Brian Eno, che ha composto diversi album di “musica generativa”, produce musica generata dai computer fin dagli anni Novanta. “Si insinuerà nel nostro settore come qualsiasi altra musica – aveva detto in proposito – ma dobbiamo prenderla in considerazione e capire che le nuove possibilità superano gli effetti distruttivi”.

 

https://youtu.be/LSHZ_b05W7o”]https://www.youtube.com/watch?time_continue=2&v=sRudUWG7e7A&has_verified=1

 

Nel 2016, il sistema di IA sviluppato da Sony, Flow Machines, ha costruito il brano Daddy’s Car basandosi solo sulle canzoni dei Beatles. Lo stesso sistema ha poi creato un intero album, Hello World, curato dal compositore francese Benoit Carré sotto lo pseudonimo SKYGGE, che ha coinvolto numerosi artisti tra cui Kiesza e Stromae, e dallo scienziato François Pachet, da poco diventato direttore del laboratorio di ricerca tecnologica di Spotify dedicato alla scoperta di nuovi generi musicali.

 

Daniel Ek fondatore e CEO di Spotify a New York nel 2015
Daniel Ek, CEO e fondatore di Spotify © Andrew Burton/Getty Images

La musica del futuro non si possiede, si ascolta in streaming

In una società liquida come la nostra, il consumo di musica non si identifica più nel possesso materiale di un disco – salvo poi riemergere in fenomeni di riappropriazione, seppur di nicchia, come il vinile – ma nella condivisione e nell’ascolto un po’ distratto, quasi sempre indotto, di singole canzoni o playlist in streaming. E, come nella composizione musicale, anche nella fruizione online l’intelligenza artificiale la fa da padrona. Le piattaforme digitali che offrono il servizio di streaming sviluppano algoritmi estremamente efficaci, con formule di elaborazione dati sugli ascolti degli utenti che li avvicinano sempre di più ai gusti di questi ultimi, suggerendo loro nuova musica personalizzabile o artisti che non conoscono e che, con tutta probabilità, gradiranno.

 

Rappresentazione rapporto uomo-macchina
Interazione uomo-intelligenza artificiale © Getty Images

 

Regina delle piattaforme di streaming online, a dieci anni dal suo avvento e dall’alto della sua posizione dominante, Spotify conta oltre 140 milioni di utenti in 61 paesi, di cui 70 milioni di abbonati (utenti premium) che pagano quasi dieci euro al mese per ascoltare, senza limiti né pubblicità, 30 milioni di brani. Numeri che affondano i diretti concorrenti come Apple Music, Amazon e Deezer. Se da un lato l’imminente quotazione in borsa di Spotify viene vista dai potenziali investitori come un enorme punto di domanda, dall’altro la creatura di Daniel Ek deve ancora lavorare alla formazione di un ecosistema che dia fiducia alle case discografiche e soprattutto agli artisti, come lamentato a più riprese da Thom Yorke e Geoff Barrow dei Portishead, garantendo loro più margini di guadagno. Ma, al momento, è anche l’unico servizio su cui l’industria musicale ripone le proprie speranze di sopravvivenza.

 

Sistema VR
Sistema di realtà virtuale di Oculus Rift © Tim P. Whitby/Getty Images for Westfield

 

Ai concerti con la realtà virtuale e aumentata

La tecnologia sta plasmando la fruizione di musica anche sotto l’aspetto dell’esperienza dal vivo, grazie alla realtà virtuale e alla realtà aumentata che sono sempre più coinvolgenti e accessibili. Indossando maschere e guanti sensoriali, gli oggetti disposti negli ambienti tridimensionali, le sensazioni di equilibrio e altri fattori fisiologici sono percepiti come reali. Da Google a Magic Leap, la realtà virtuale è già oltre i limiti dell’udito e della vista, offrendo esperienze completamente interattive. I concerti diventano personali, le canzoni veri e propri eventi, gli ascoltatori partecipanti attivi.

 

Come nel 2016, quando il celebre brano Bohemian Rhapsody dei Queen si è trasformato in una app. Del resto, il chitarrista della band Brian May è un estimatore dichiarato della tecnologia VR, tanto da aver lanciato la propria linea di visori, ma anche Björk ci ha abituato a immergerci nel suo mondo in 3D. Diversi artisti ormai lavorano con gli sviluppatori di realtà virtuale o aumentata e mapping in 3D per creare esperienze musicali memorabili, conducendo i fan in luoghi spettacolari senza costringerli a viaggiare, o invitandoli sul palco a suonare insieme a loro.

 

La vocaloid Hatsune Miku è una cantante virtuale
Hatsune Miku nel 2017 a Chiba, Giappone. La cantante virtuale sviluppata dalla società informatica musicale Crypton Future Media è nota in tutto il mondo © Taro Karibe/Getty Images

 

Oggi i performer non devono necessariamente essere presenti o vivi per suonare su un palco, come hanno dimostrato gli ologrammi di Tupac, Michael Jackson e Gorillaz. Il co-creatore dell’avatar animato, Jamie Hewlett, ha dichiarato al Daily Star che lui e Damon Albarn stanno diventando “troppo vecchi” per i Gorillaz, ma lo spettacolo potrà continuare anche senza di loro. A quasi trent’anni dalla sua scomparsa, Roy Orbison, quello di Oh, Pretty Woman, sta per andare in tour con la Royal Philharmonic Orchestra. Una delle popstar più famose in Giappone, invece, è Hatsune Miku, una cantante umanoide che non esiste, eppure da dieci anni sulla scena continua a sfornare hit e potrebbe, dopo la collaborazione con Pharrell Williams, essere protagonista di altri duetti importanti.

 

Bitcoin e blockchain
Rappresentazione visiva della criptovaluta bitcoin © Dan Kitwood/Getty Images

 

Chi scambierà musica in bitcoin?

È una grande tentazione per tutto il settore musicale: la possibilità di effettuare transazioni sul web senza l’intermediazione delle banche, ma attraverso la blockchain. Questa tecnologia informatica, una catena di blocchi in successione che registrano le transazioni di criptovalute come il bitcoin, potrebbe essere usata per confrontare i database dei diritti in tempo reale, evidenziare eventuali conflitti e migliorare l’efficienza delle società di gestione collettiva, garantendo più denaro ai creatori e ai titolari dei diritti. Sempre che le informazioni su di essi e sulle registrazioni si sappiano, e siano corrette.

 

Nel mondo del pop, soprattutto tra i rapper, la corsa alle criptovalute è iniziata da anni, ben prima che queste ultime esplodessero in tutta la loro volatilità. Nel 2014, 50 Cent ha messo in vendita il suo quinto disco, Animal Ambition, in bitcoin, incassandone inconsapevolmente 700, l’equivalente odierno di circa otto milioni di dollari. Lo scorso novembre, Björk ha iniziato a vendere il suo album Utopia in bitcoin e in altre tre criptovalute digitali minori. Una scommessa aperta, e ancora tutta da giocare.

Siamo anche su WhatsApp. Segui il canale ufficiale LifeGate per restare aggiornata, aggiornato sulle ultime notizie e sulle nostre attività.

Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

L'autenticità di questa notizia è certificata in blockchain. Scopri di più
Articoli correlati