Categorie
Le idee Le idee

Sorveglianza digitale – La spunta verde di Spotify e il rimedio che non cura

C’è un errore di fondo nella risposta di Spotify all’ondata di musica che viene generata artificialmente e immessa sul mercato a ritmi serrati: cercare l’umano dove il problema non è l’umano. La «spunta verde» promette di certificare gli artisti in carne ed ossa, distinguendoli dai contenuti prodotti con l’intelligenza artificiale. L’intenzione è comprensibile e sostanzialmente condivisibile.

Lo ha fatto anche Guido Scorza, ex garante privacy, sostenendo e, puntigliosamente, argomentando sul tema. Ma anche quando l’intenzione è comprensibile non è sufficiente poi a generare una buona soluzione al problema. Il rimedio sposta il bersaglio. E quando si sbaglia bersaglio, si finisce per colpire altrove

Certificare l’autore

Il mercato musicale non è invaso da artisti finti. È invaso da contenuti. Brani prodotti in serie, generati da sistemi capaci di imitare e replicare stili, voci e atmosfere. Non serve un robot con un nome e una biografia. Basta un algoritmo alimentato con dati, repertori e modelli sonori. Qui si gioca la partita: non sull’esistenza fisica dell’artista, ma sulla natura dell’opera immessa nella piattaforma. Certificare l’identità di chi pubblica musica è una scorciatoia. Un artista verificato potrà comunque pubblicare musica generata artificialmente. Potrà riempire il catalogo con brani costruiti più sulla replica che sulla creazione, con una legittimazione in più: quella della spunta.

Il sistema sta certificando l’autenticità della musica? O sta certificando l’identità di chi la carica? Sono due cose molto diverse. Confonderle significa costruire un marchio di affidabilità che non garantisce gli utenti.

Una nuova gerarchia

C’è poi un effetto meno dichiarato, ma più incisivo. Ogni sistema di certificazione introduce una gerarchia: chi ha la spunta e chi no; chi appare affidabile e viene percepito come vero e chi è in lista di attesa per ottenere la certificazione. Nel mondo digitale, questi segnali non sono per nulla neutri: orientano l’attenzione, influenzano gli ascolti, costruiscono reputazione. Il problema è che questa gerarchia non si fonda più sulla qualità, né sull’originalità, né sul merito artistico. Ma trova le sue fondamenta in un processo più rapido per chi è già strutturato, rappresentato, visibile. Chi è più lento o indipendente o emergente, meno inserito nei circuiti commerciali, si indebolisce. Così, nel tentativo di proteggere il sistema dai contenuti artificiali, chi paga scotto è proprio lo stuolo degli artisti in carne e ossa. È il paradosso delle soluzioni semplici applicate ai problemi complessi: rassicurano perché si ha l’impressione del rimedio, ma spesso nascono nuove distorsioni. La spunta verde potrebbe non fermare i contenuti imitativi e generare differenze tra artisti autentici. Una soluzione che protegge male e seleziona peggio.

Il criterio che manca

L’intelligenza artificiale non va cancellata dal mondo della musica. È uno strumento creativo. Può essere usata per sperimentare, comporre, esplorare possibilità sonore nuove. Ma può anche diventare una macchina di replicazione, un sistema per produrre copie ben confezionate, cloni musicali mascherati da novità per un mercato che tragugita tutto. Il punto è distinguere tra creazione e replicazione. Tra uso dell’AI come strumento e uso dell’AI come scorciatoia predatoria. Tra un’opera che nasce da una responsabilità creativa e un contenuto che sfrutta il lavoro di altri. Questa distinzione non può essere affidata a un’icona grafica. Richiede criteri, regole e responsabilità. Richiede una discussione pubblica sul valore dell’originalità, sulla tutela degli autori, sulla trasparenza dei processi creativi e sul ruolo delle piattaforme. Perché la domanda vera non è se dietro un profilo ci sia una persona. La domanda vera è: quando una musica può dirsi autentica e quando, invece, è solo una «copia più furba»?

Lascia un commento Annulla risposta

Exit mobile version