OpenAI, l’azienda statunitense responsabile del celebre programma di intelligenza artificiale generativa ChatGPT, si è vista recapitare una diffida da parte degli avvocati della famosa attrice Scarlett Johansson.
Oggetto del contendere la voce dell’attrice protagonista di molti film hollywoodiani, da Lost in Translation fino ad Avengers, che sarebbe stata oggetto di imitazione da parte di OpenAI.
La voce di “Sky”, nome di un’assistente virtuale femminile disponibile nel programma ChatGPT (versione 4o), sarebbe infatti estremamente simile a quella di Scarlett Johansson.
Tra i molti film di successo interpretati dall’attrice, spicca in questo caso una pellicola per la quale aveva prestato soltanto la sua voce: Her (2013), del regista Spike Jonze. Nel film, il protagonista interpretato da Joaquin Phoenix si innamora dell’assistente virtuale, Jessica, che ha appunto la voce dell’attrice.
La vicenda è stata raccontata dalla stessa Johansson, che spiega di esser stata contattata una prima volta da Sam Altman, CEO di OpenAI, per proporle di prestare la sua voce per il suo utilizzo in ChatGPT. Altman le avrebbe spiegato che, prestando la propria voce al sistema, la Johansson avrebbe potuto “colmare il divario tra aziende tecnologiche e creativi e aiutare i consumatori a sentirsi a proprio agio con il cambiamento epocale che riguarda gli esseri umani e l’IA”.
L’attrice rifiutava la proposta di Sam Altman ma solo pochi mesi dopo, per suo immenso stupore, scopriva che la voce chiamata “Sky” presente in ChatGPT appariva quasi identica alla sua.
Nella sua dichiarazione, la Johansson cita anche un recente tweet di Altman, in cui è presente un’unica parola: “her”, secondo l’attrice un chiaro riferimento al noto film sopra citato, in cui l’attrice presta la voce proprio ad un sistema di IA.
L’attrice statunitense si è rivolta ai suoi avvocati per diffidare la società, chiedendo e ottenendo l’immediata eliminazione da ChatGPT della voce “Sky”, imitazione non autorizzata di quella della Johansson.
Nel blog di OpenAI, l’azienda si è difesa negando che la voce oggetto del contendere fosse quella dell’attrice: “Crediamo che le voci dell’intelligenza artificiale non debbano imitare deliberatamente la voce distintiva di una celebrità: la voce di Sky non è un’imitazione di Scarlett Johansson, ma appartiene a un’altra attrice professionista che usa la sua voce naturale“.
La controversia tra la Johansson e OpenAI non è la prima di questo genere.
In Italia ad esempio, il Garante Privacy ha aperto un’istruttoria nel 2022 nei confronti di The Storyteller Company – Fake You, con riguardo all’app Fake You, che consente di modificare la propria voce trasformandola in quella di una serie di personaggi famosi.
Tra le richieste del Garante all’azienda, quella di “fornire le modalità di “costruzione” della voce dei personaggi famosi, il tipo di dati personali trattati, nonché le finalità del trattamento dei dati riferiti ai personaggi noti e agli utenti che utilizzano l’app”. Fake You non è affatto l’unico esempio di app che consentono di imitare voci di personaggi famosi.
Nel settore cinematografico, sia negli Stati Uniti che in Europa è in corso una forte protesta dei professionisti del cinema e del doppiaggio, che temono di venire sostituiti progressivamente da voci generate tramite appositi software di IA che utilizzano tecnologie come il text-to-speech, che consente di trasformare un testo scritto in un discorso pronunciato da una voce che è possibile regolare e modificare a piacimento, in base alle proprie specifiche esigenze.
Queste vicende appaiono molto significative dell’attuale contesto tecnologico e sociale, fortemente influenzato dal forte sviluppo delle tecnologie di IA ormai mature dopo anni di ricerca e sviluppo che stanno inondando il mercato, causando vari e seri rischi per la persona.
Nel successivo paragrafo, vedremo sinteticamente come è disciplinata la protezione della voce umana nell’ordinamento giuridico italiano ed in quello europeo.
Gli strumenti giuridici a difesa dei diritti della personalità
La voce è una tra le principali forme di espressione della personalità di un individuo. Come tale, rientra nella categoria dei diritti all’immagine della persona, tutelati in base all’art. 2 della Costituzione, che concerne i diritti inviolabili dell’individuo.
Il diritto all’immagine è protetto ai sensi degli articoli 6 e 10 del codice civile. Il primo copre il diritto al nome, mentre l’art. 10 conferisce il diritto di chiedere all’Autorità giudiziaria di far cessare l’abuso della propria immagine, nonché il risarcimento del danno patito. Risultano inoltre applicabili gli artt. 96 e 97 della Legge sul diritto d’autore.
La giurisprudenza si è spesso occupata del diritto all’immagine, soprattutto con riguardo a riproduzioni non autorizzate del nome o di fotografie.
Pochi tuttavia i precedenti relativi in modo specifico alla voce. Tra questi, si può citare il “caso Branduardi” deciso dal Tribunale di Roma nel 1993, relativo ad una pubblicità in cui era presente una versione modificata di una canzone del noto cantautore, interpretata da una voce simile a quella di Branduardi. La sentenza dà conto della violazione, considerata plagio-contraffazione della composizione, precisando che “tale violazione sussiste anche se il brano, pur modificato, presenti elementi di somiglianza nella parte musicale, nel modo di cantare e nel timbro vocale del cantautore”.
Il parallelismo con il caso Joahnsson è evidente nella misura in cui se all’inizio degli anni ’90 dello scorso secolo la volontà (magari frustrata da un rifiuto) di un’impresa di collaborare con un determinato artista talvolta veniva soddisfatta ricorrendo a una soluzione come l’uso di una canzone o di un interprete simile (ma pur sempre umano!) nel 2024 determinate imprese hanno la possibilità di “ricreare” attraverso l’IA non solo un brano musicale, ma addirittura la voce dell’artista di loro gradimento.
La voce umana è tutelata anche dal diritto della privacy, nel cui ambito è inclusa tra i c.d. dati biometrici ovvero “i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici” (art. 4, n. 14 Regolamento 679/2016, “GDPR”).
Il recentissimo Regolamento dell’Unione europea sull’intelligenza artificiale (“AI Act”) in procinto di essere pubblicato in Gazzetta Ufficiale al momento in cui si scrive, fa anch’esso riferimento ai dati biometrici, rinviando al GDPR e prevedendo specifiche norme al riguardo. In questo ambito, sebbene la voce sia menzionata tra i dati biometrici (Considerando n. 18: “caratteristiche della voce di una persona, ad esempio una voce alta o un sussurro”), non si registrano regole volte a tutelarla in modo specifico.
L’AI Act vieta tuttavia alcuni specifici utilizzi dei dati biometrici, ad esempio i sistemi di categorizzazione biometrica, che utilizzano i dati biometrici di persone fisiche al fine di suddividerle in categorie specifiche. Si pensi ad esempio a database composti da innumerevoli immagini del volto di persone fisiche.
Nel complesso panorama – non solo giuridico, ma prima ancora sociale – che si va delineando in conseguenza dell’adozione sempre più ampia delle diverse tecnologie di intelligenza artificiale, risulterà senza dubbio decisivo l’apporto di tutti i soggetti coinvolti, a partire dal legislatore, passando dalle aziende, per arrivare fino al consumatore.
Comments are closed