Dopo la creazione di immagini sullo stile di artisti e disegnatori, o produzione di testi attingendo a opere letterarie, l’IA si insinua anche nell’industria musicale, già provata da quando lo streaming è entrato nel settore.
Se da una parte Sony Music ha denunciato l’uso di 75.000 deepfake, di cui ha chiesto la rimozione dal web, il pericolo più grande sono invece software IA: Suno (piattaforma che permette di comporre musica e vocalizzare testi), Udio (modello di intelligenza artificiale generativa tramite cui poter produrre musica sulla base di istruzioni testuali) e Mubert (altra IA da cui poter generare musica per video senza incorrere nel diritti d’autore), queste ed altre piattaforme di Intelligenza Artificiale attraverso l’allenamento con contenuti musicali originali sono capaci di produrre a loro volta contenuti audio.
Su YouTube e Spotify non è difficile imbattersi infatti in un rap di 2Pac sulla pizza, o in Ariana Grande che coverizza una hit K-Pop. Entrambi i contenuti ovviamente sono falsi. Sam Duboff, responsabile della politica normativa di Spotify, sul canale YouTube dell’Indie Music Academy si esprime con queste parole: “Prendiamo la questione molto seriamente e stiamo lavorando a nuovi strumenti in questo ambito per migliorare”.
Nonostante YouTube affermi di stare “perfezionando la sua tecnologia con i suoi partner”, l’analista di Emarketer, Jeremy Goldman, osserva che “I cattivi sono sempre un passo avanti rispetto al settore. […] Youtube ha miliardi di dollari in gioco, quindi ci si aspetterebbe che riuscisse a risolvere il problema, se non vuole vedere la piattaforma trasformarsi in un incubo per l’intelligenza artificiale”.
Nel frattempo a giugno la società madre di Udio è stata citata in giudizio presso la corte federale di New York, da alcune major discografiche: l’accusa è di aver allenato il proprio software con “registrazioni protette da proprietà intellettuale con l’obiettivo finale di attirare ascoltatori, fan e potenziali utenti paganti”. A distanza di nove mesi non c’è ancora una data per il processo, ed anche in Massachussetts una causa simile è rimasta lettera morta. Joseph Fishman, professore di diritto alla Vanderbilt University osserva che “siamo in una zona reale di incertezza” perché “se i tribunali cominciassero a dare pareri discordanti” dovrebbe essere chiamata a pronunciarsi la Corte Suprema.
I principali attori dell’intelligenza generativa con finalità musicale continueranno ad allenare nel frattempo i propri modelli con dati protetti, ed a questo proposito Fishman pone l’interrogativo se la battagli non sia persa da principio: “Non ne sono sicuro. Molte di queste interfacce sono sviluppate utilizzando materiale protetto da copyright, ma continuano a uscire nuovi progetti”. Si suppone quindi che prima o poi le piattaforme di IA dovranno fare i conti con una sentenza vincolante.
Al momento però, dal punto di vista legislativo, nonostante etichette, artisti e produttori abbiano chiesto una legge che regolamentasse in modo netto la faccenda, non hanno ricevuto riscontri. Il Tennesee e altri stati hanno adottato specifiche leggi solo per i deepfake, mentre per i prodotti musicali la questione potrebbe ulteriormente complicarsi. Donald Trump, in quanto presidente degli Stati Uniti, si è infatti dimostrato favorevole ad un uso deregolamentato dell’intelligenza artificiale.
Anche nel Regno Unito la situazione non è comunque migliore: il governo laburista ha avviato una consultazione col fine di allentare la legge sulla proprietà intellettuali per facilitare lo sviluppo di software di intelligenza artificiale. In risposta a fine febbraio più di 1.000 artisti per protesta hanno pubblicato insieme un album silenzioso dal titolo Is This What We Want? (È questo che vogliamo?). Nonostante il numero di artisti uniti in protesta, l’industria musicale risulta essere “molto frammentata”, sottolinea Jeremy Goldman, indebolendo così la capacità di arginare l’offensiva dell’intelligenza artificiale.
Fa notare però Ugo Barbàra su AGI che dalla IA potrebbe provenire la stessa o una parziale soluzione: software di intelligenza generativa potrebbero essere sfruttati per scoprire quali contenuti musicali siano prodotti senza la partecipazione degli artisti a cui sono ispirati. Questo potrebbe accadere grazie alla collaborazione con Pindrop Security, una società di sicurezza informatica specializzata nella segnalazione di truffe telefoniche tramite meccanismi di riconoscimenti vocali, che spiega “sebbene suonino realistiche, le canzoni create con l’intelligenza artificiale presentano leggere irregolarità nella frequenza, nel ritmo e nella firma digitale che non si riscontrano nella voce umana”.