Ormai sempre più di frequente sentiamo parlare di intelligenza artificiale, applicata ai più svariati ambiti. Almeno una volta abbiamo tutti ‘giocato’ con ChatGpt, un chatbot basato su intelligenza artificiale e apprendimento automatico di facilissimo utilizzo, spesso stupefacendoci della capacità di trovare le informazioni di cui avevamo bisogno, ma forse non tutti abbiamo ben presente quali possono essere gli ambiti di utilizzo dell’AI e quali conseguenze potrebbero derivare da un impiego sempre più massiccio di questa risorsa.
Per scoprire quali sono i risvolti e le prospettive in ambito musicale abbiamo partecipato con entusiasmo alla prima masterclass organizzata dal team di Play Baltimora, la nuova realtà dedicata a chi lavora (o vorrebbe farlo) nel mondo della musica che ha trovato casa all’interno dei Giardini Baltimora di Genova, nata grazie all’impegno e al talento di Martina Calabresi e di Sergio Carnevale, nel pieno centro della città. Si tratta di un vero e proprio ‘Artist Hub’, dove artisti giovani e non possono avere supporto in ogni settore del mondo discografico, dalla creazione del personaggio alla burocrazia, passando ovviamente per la musica.
A raccontare quel che sta accadendo nella musica da quando l’IA ha preso piede è Irene Pederzini, discografica di Ala Bianca Records, una laurea in Musica Elettronica Applicata e una vasta esperienza in produzione e composizione musicale, con una tesi pubblicata sulla musica interattiva nei videogiochi e altri progetti prossimamente in uscita. Nel suo talk ha esplorato l’impatto dell’intelligenza artificiale inserita nel ‘workflow’ di produzione musicale, con esempi pratici di utilizzo di tools e plugin che sfruttano l’intelligenza artificiale, e l’illustrazione di iniziative open source che permettono di creare i propri modelli audio.
Prima dell’arrivo del pubblico, che ha affollato la sala per l’intero pomeriggio, abbiamo fatto qualche domanda alla speaker per toglierci qualche curiosità.
L’intelligenza artificiale applicata alla musica è il tema della masterclass di oggi. Potendo riassumere, che cosa ci dobbiamo aspettare?
“Non ci sono risposte giuste, si fanno delle previsioni ma non esiste certezza. Si parla spesso di democratizzazione della produzione musicale: significa che chiunque, anche chi non ha un’educazione musicale, può essere in grado di produrre, modificare, pensare musica, perché ci sono degli strumenti che traducono le parole e le trasformano, appunto, in musica”.
È un rischio reale, secondo te, quello di perdere professioni legate alla musica grazie a queste risorse?
“C’è questa parte di tecnologia, c’è questa eventualità, ma non può essere sostitutiva dei professionisti: innanzitutto perché non è una tecnologia così avanzata per ora, ma soprattutto perché c’è un bisogno espressivo dell’essere umano che non può essere escluso. Lo vedo come uno strumento che andrà ad amplificare le correnti creative, un supporto, un complemento”.
Ci sono già dei lavori discografici che hanno utilizzato l’IA?
“Ce ne sono tanti, leciti e illeciti. C’è chi ha creato un modello sulla propria voce per poter tradurre le canzoni in altre lingue, come il coreano, e questa è un’idea che funziona. Anche i piccoli accorgimenti strumentali messi qua e là vanno bene. Ci sono invece lavori cosiddetti ‘deep fake’, cioè che non hanno il consenso da parte di chi presta la voce. I più famosi sono quelli con la voce clonata di Drake: gli sono state fatte cantare cose che non aveva mai cantato in realtà”.
Non c’è rischio che ci sia omologazione nei prodotti finiti quando si utilizza tecnologia di questo tipo? Si riconosce che c’è dietro una IA?
“È quello che può succedere, ma essendoci ancora un qualche anello umano nella catena della produzione, prima che si arrivi a un prodotto finito è molto spesso probabile che l’utilizzo di IA non sia evidente. Ci sono alcuni deep fake che non riconosceremmo senza saperlo, perché chi lo ha messo ci ha lavorato, lo ha mixato, lo ha levigato con suoni e riverberi e quindi non è più solo IA. È veramente uno strumento in più, in cui l’uomo è ancora necessario per creare qualcosa di ‘artistico’… o comunque che non sia robotico”.
Esiste un modo per riconoscere se un pezzo è stato fatto solo esclusivamente con IA?
“I modi ci sono, ma credo siano usati ad altissimi livelli e sono comunque in fase ancora sperimentale. So che alcune major stanno cercando di utilizzare una tecnologia di finger print per rilevare dov’è stato usato un determinato suono o per capire se la presenza dell’AI c’è, anche per capire come tutelare i diritti”.
Dopo l’intervento di Irene Pederzini, Stefano Polli ha condotto la seconda parte, concentrandosi sullo stato attuale dell’IA nelle arti visive e fornendo una panoramica delle tecnologie emergenti e delle loro potenziali applicazioni creative.
Pagina Instagram Play Baltimora