Come l’Intelligenza Artificiale sta rimodellando l’industria musicale

C’è una paura ricorrente nell’industria musicale: che l’Intelligenza Artificiale sostituisca gli artisti che amiamo, mettendo fine alla creatività umana, e le prove non mancano. Un intero ecosistema di start up sta emergendo attorno a servizi che offrono agli artisti consigli per la creazione e la scrittura di canzoni, o che consentono all’utente medio di generare tracce strumentali personalizzate con il minimo sforzo.

L’impatto a lungo termine dell’Intelligenza Artificiale sulla creazione musicale non è ancora così chiaro e molti lo interpretano come una minaccia, ma se lasciamo da parte il pessimismo e guardiamo a come l’innovazione tecnologica ha reso progressivamente più facile per gli artisti realizzare le loro visioni creative in canzoni, possiamo intravederne il potenziale.

La musica generata da IA non rappresenta qualcosa di veramente nuovo nella storia. Già nel 1950, il compositore Iannis Xenakis progettò un sistema per comporre brani tramite il computer. Il software GENDY (GENeral DYnamic), ideato presso il CEMAMu (Centre d”etudes de Mathematique et Automatique Musicales), era basato sulla Sintesi Stocastica Dinamica, sistema creato dallo stesso Xenakis. Si trattava di una procedura algoritmica casuale, legata non solo all’ideazione della macrostruttura di una composizione (durate e altezza), ma anche alla microstruttura del suono (altezza, timbro e dinamica del campione). L’obiettivo era quello di costruire lo spettro di un suono interpretando i suoi elementi costitutivi come processi stocastici, ovvero basati sulla totale indipendenza dei suoni e della loro durata all’interno di una struttura non definitiva. Avvalendosi del calcolo combinatorio, infatti, questi processi studiano le leggi dei grandi numeri e degli eventi aleatori, nei quali possono essere compresi anche quelli sonori; rispetto alla dodecafonia, la stocastica si pone a un livello compositivo superiore, facendo astrazione da tutte le convenzioni e realizzando un insieme di eventi sonori secondo la successione desiderata.

Iannis Xenakis

Qualche decennio più tardi, David Bowie – in collaborazione con l’ex CTO di Universal Music, Ty Roberts – realizzò Verbasizer, un software che riproduceva uno dei metodi di composizione più usati dal Duca: il cut-up. La tecnica consisteva nel raccogliere 25 frasi o gruppi di parole, ritagliate da alcuni giornali, da inserire in una serie di finestre. Il programma, poi, riordinava in maniera casuale ogni singolo elemento, in modo da creare liriche potenzialmente significative. Bowie comprese che questa IA così caotica esaltava la sua arte piuttosto che penalizzarla, e la utilizzò per la realizzazione del suo diciannovesimo album, Oustide.

David Bowie

La vera novità del 2018, però, non è solo l’evoluzione della tecnologia, ma le risorse finanziare che vengono investite. Le major, i servizi di streaming ed altri soggetti operanti nel settore, stanno investendo sempre più denaro nel tentativo di creare prodotti musicali IA che possano arrivare alla massa. Nel settembre del 2016, il Computer Science Laboratories di Sony ha progettato Flow Machines, un’Intelligenza Artificiale capace di generare musica sia autonomamente che in collaborazione con artisti. Il primo esperimento ha visto la partecipazione del songwriter Benoit Carré per la realizzazione di un brano che prendesse spunto dai Beatles, dal titolo Daddy’s Car.

Meno di un anno dopo, il responsabile del CLS, Francois Pachet, ha lasciato Sony per diventare il direttore del Creator Technology Research Lab di Spotify, centro di ricerca per realizzazione di sistemi che supportino gli artisti nel loro processo creativo. La prima operazione di Pachet è stata quella di riunirsi con Benoit Carrè per realizzare un nuovo progetto musicale (SKIGGE – Hello World) composto principalmente da IA, rendendolo disponibile esclusivamente sulla piattaforma streaming. Il risultato è stato che uno dei singoli principali, HelloShadow, è entrato nella playlist New Music Friday di dicembre come brano di punta.

Anche Google, attraverso il suo progetto interno Magenta, sta sviluppando una rete neurale, denominata Performance RNN, progettata per modellare musica polifonica con tempi e dinamiche espressive. Tuttavia, nonostante il fiume di denaro che viene investito, le IA devono ancora affrontare resistenze finanziare e legali da parte di vecchi dirigenti discografici, che hanno costruito il proprio business sfruttando le royalties legate al diritto d’autore.

Considerando che la musica è per natura legata a sensazioni soggettive e all’emotività, è difficile pensare che una macchina possa quantificare e ottimizzare il valore estetico di un’opera. Ciò nonostante, le major, in altre aree operative, stanno arrivando alla conclusione che quando mente e dati collaborano, non si annullano l’un l’altro ma coesistono in un unico sistema. La recente acquisizione da parte di Warner Music di Sodatona – una startup che ha sviluppato una piattaforma algoritmica che combina i dati di social, streaming e touring per aiutare a identificare le superstar del domani – è un primo esempio di come tale paradigma possa trasformare lo sviluppo di un artista.

Ciò che rende particolarmente sensibile la questione IA tra piattaforme streaming e label, bloccate ormai da una dipendenza reciproca discutibilmente difettosa, è il risultato che ne potrebbe scaturire. Mentre le etichette vogliono continuare a guadagnare sul diritto d’autore, i servizi di streaming vogliono smettere di cedere quasi l’80% del loro ricavato a terze parti che detengono i diritti su quei brani. In particolare, le motivazioni che spingono Spotify a investire principalmente in musica generativa, è legato a stretto contatto con le operazioni portate avanti da Uber e altre società di trasporti per la creazione di auto a guida autonoma. In sostanza, la piattaforma svedese non è più solo una compagnia di streaming musicale ma si propone al mercato come auto-guida musicale del futuro.

Oggi esistono diversi casi in cui l’intelligenza artificiale si pone come sostituto valido degli artisti, ma non nel senso di un rimpiazzo definitivo. Due dei più grandi punti dolenti in qualsiasi processo creativo sono tempo e costi e l’intelligenza artificiale potrebbe aiutare a ridurre entrambi i fattori in modo significativo. Inoltre, tra tour brutali, programmi di viaggio e interviste, gli artisti possono facilmente essere meno produttivi, mentre non esistono cose come gli esaurimenti, la stanchezza e i problemi personali per gli algoritmi. Supponendo che non ci siano bug, possono funzionare senza sosta, 24 ore su 24, 7 giorni su 7.

L’affermazione che l’intelligenza artificiale sostituirà gli artisti presuppone che noi diamo valore solo alla canzone in sé, quando in realtà i musicisti sono arbitri della cultura e del contesto sociale, non solo del suono. Gli addetti ai lavori che aiutano a promuovere e sviluppare artisti – etichette, distributori, manager, promotori di concerti, agenti – stanno vendendo i retroscena di un’artista – storie personali, educazione culturale e politica, passioni individuali – tanto quanto le loro opere musicali. Al contrario, un’IA tipica non ha ricordi o esperienze soggettive. Fino a quando non potremo averne una che racconta storie su se stessa e sulla musica che compone, e fino a quando le compagnie musicali non si sentiranno a proprio agio nel promuoverle, gli artisti finiranno comunque in cima e avranno l’ultima parola creativa. Quindi, per tutti gli aspetti dell’industria musicale, i modelli di intelligenza artificiale di oggi non sono altro che strumenti basati su prove per ridurre il tempo e i costi necessari. Almeno nel breve periodo, l’IA rimodellerà il settore non eliminando posti di lavoro, ma piuttosto liberando nella mente umana nuove prospettive e azioni che non si potevano prendere in considerazione.

Un positivo “effetto collaterale” di questo cambiamento sarà che gli strumenti dell’IA continueranno il lavoro dei software musicali e di altre tecnologie simili nel democratizzare la creazione di musica a sempre più aspiranti artisti in tutto il mondo, il che probabilmente costituirà un guadagno netto per l’industria musicale. L’incentivo collettivo e la capacità di creare sono sempre cresciuti in maniera esponenziale con l’avvento di nuovi progressi tecnologici; quindi, se da una parte potremmo fare di più come compositori, dall’altra, si potrà sfruttare l’Intelligenza Artificiale come strumento per accrescere le opportunità tecniche e artistiche, indipendentemente dagli incentivi economici di questo settore.

Nonostante i vantaggi appaiano evidenti, allo stesso modo, tutto questo potrà abbassare il livello artistico di un’opera, riducendo il tutto a una catena di montaggio pronta a sfornare brani senza personalità e privi di emozione, scaturiti da “errori” umani. Ma la vera innovazione è che ad oggi sono gli stessi compositori a sviluppare nuove tecnologie: l’artista iraniano Ash Koosha, ad esempio, se ne serve in modo che non generi la perdita dei valori umani, e non vada in una direzione ingannevole in cui sia semplicemente la macchina a decidere il tutto.

L’impatto aggregante della IA sull’industria musicale, dunque, non genererà per forza solo ozio o pigrizia intellettuale. Dopotutto la musica, come spiegato dal musicologo John Blacking in “How Musical is Man?”, non è nient’altro che suono umano organizzato. A prescindere da ogni sviluppo futuro, la macchina non potrà mai sostituire l’elemento artistico, ma semmai supportarlo. Le macchine, si adatteranno al nostro modo di lavorare perché saremo noi ad insegnarglielo.

Segui Federico su The Vision
Seguici anche su:
Facebook    —
Twitter   —