Usare la voce di una donna in un robot per “manipolare” l’opinione pubblica è una tattica presente fin dai racconti di Asimov (vedi “Intuito femminile”). L’idea che gli umani trattino i computer con voce femminile in modo diverso rispetto a quelli con voce maschile è trattata già in un noto studio di metà degli anni ‘90, The Media Equation. Mentre gli effetti psicologici indotti sugli umani anche da un chatbot primitivo e non certo “intelligente” sono stati sviscerati con approccio critico, già negli anni ‘70, da Joseph Weizenbaum, lui stesso creatore di un chatbot, anzi del primo chatbot, ELIZA (ne abbiamo scritto su Guerre di Rete).
Nel 2019 uno studio UNESCO analizzava (e criticava)
la tendenza delle aziende tech a femminilizzare di default le voci degli
assistenti vocali, sostenendo che potevano consolidare o affermare pregiudizi
di genere. Nel 2020 (quindi prima dell’esplosione dell’AI generativa) un report
dell’istituto americano Brookings e di quello italiano ISPI tornava sul tema
con un articolo intitolato: “Come i bot e gli
assistenti vocali rafforzano i pregiudizi di genere”.
Mentre le due ricercatrici Kate Crawford
e Jessa Lingen nel 2020 analizzavano non solo gli stereotipi di
genere degli assistenti vocali, ma anche come questa rappresentazione aiutasse
a non percepirli come strumenti di sorveglianza.
In questo contesto inseriamo Sam
Altman, Ceo di OpenAI (la società dietro a ChatGPT). Il quale decide che la
nuova modalità per cui si può parlare con ChatGPT-4o deve avere la voce di
Scarlett Johansson, che fra le altre cose ha interpretato l’intelligenza
artificiale di cui Joaquin Phoenix si innamora nel film Her.
A una prima dimostrazione di questa funzione a settembre molti avevano già notato che Sky, una delle voci con cui
il chatbot poteva parlare, assomigliava molto a quella dell’attrice.
Veniamo all’oggi. In questi giorni Johansson ha rivelato che Altman aveva tentato di
negoziare con lei per mesi per prestare la sua voce a ChatGPT, perché ciò
“avrebbe aiutato i consumatori a sentirsi più a loro agio” con questo
cambiamento tecnologico.
Ma l’attrice si rifiutò. Salvo
rimanere di sasso quando poi è uscita la demo con una voce così simile alla
sua. Johansson ha detto di essere rimasta “scioccata, arrabbiata e incredula”.
Tanto più che a pochi giorni dal lancio della demo Altman aveva ricontattato il
suo agente, chiedendo di rivedere la sua decisione. E prima di poter anche solo
rispondere, la demo era uscita.
“Sul momento, era sembrato un grande successo”, scrive in questi giorni il giornalista
Casey Newton nella sua newsletter Platformer. “Certo, avevo trovato il
suo flirt aggressivo inquietante e apparentemente in contrasto con le
precedenti dichiarazioni di Altman, secondo cui l'azienda non avrebbe
perseguito strumenti di intelligenza artificiale che facessero da compagni
romantici. Ma la demo era indubbiamente riuscita ad affascinare il mondo della
tecnologia”.
Ma la faccenda è tornata indietro come un boomerang, anche perché Johansson ha
mobilitato gli avvocati (e diffuso un messaggio pubblico che viene riportato qua). E così la scorsa
domenica OpenAI ha annunciato che avrebbe tolto la voce Sky da ChatGPT,
spiegando che si trattava di un fraintendimento e che non c’era stata alcuna
intenzione di scippare la voce all’attrice contro la sua volontà (qua la spiegazione di OpenAI). Tanto più,
ha riportato poi il WahsPost, che per Sky
non ci sarebbe stata clonazione della voce di Johansson, ma sarebbe stata
reclutata un’attrice, e che la documentazione uscita finora non mostrerebbe
esplicite richieste di trovare una sonorità simile a quella della più nota
superstar.
Il problema è che non aiuta a
credere a questa interpretazione - ovvero che sia stato un fraintendimento, una
somiglianza casuale - il fatto che proprio Altman, con mossa devo dire molto
muskiana, poco dopo la dimostrazione di maggio abbia twittato un tweet con
scritto solo Her, appunto il titolo del film con Johansson,
annullando come nota qualcuno ogni possibile plausible deniability (traducibile
tecnicamente in: “davvero? non sapevo, non sono stato io, ma che strana
coincidenza”). Se pensava di prendersi una sorta di vendetta per il gran
rifiuto dell’attrice (che per inciso aveva già messo Disney alle strette
aprendo un contenzioso poi conclusosi con un accordo per lei soddisfacente), ha
pensato molto male.
Soprattutto la vicenda ha assunto un significato simbolico che va ben oltre la
nota celebrità, e anche oltre le modalità con cui sarebbe stata ottenuta quella
voce (ragioni legali incluse, che in ogni caso restano incerte: anche se la
voce non è clonata, dati i precedenti e gli elementi di contesto, OpenAI è
ancora a rischio, come spiega The Verge). E ciò a causa del
comportamento complessivo di Altman e OpenAI, e più in generale a causa
dell’approccio complessivo di questa industria.
“Johansson è una delle attrici più
famose del mondo e parla a nome di un'intera classe di creativi che si sta
confrontando con il fatto che i sistemi automatizzati hanno iniziato a erodere
il valore del loro lavoro”, commenta ancora Newton.
Scrive anche l’autore (e
professionista di PR) Ed Zitron: “Non dovrebbe sorprendere che la Johansson non
abbia colto al volo l'opportunità di lavorare con OpenAI. In quanto membro del
sindacato dei lavoratori dello spettacolo SAG-AFTRA, Johansson ha partecipato
allo sciopero del 2023, che ha di fatto bloccato tutta la produzione televisiva
e cinematografica per gran parte dell'anno. Una delle principali preoccupazioni
del sindacato era l'uso potenziale dell'AI per creare una copia di un attore, utilizzando
le sue sembianze ma senza pagarlo”.
Zitron, ricordando anche come
OpenAI non abbia voluto dire se Sora, il suo modello che genera video da testo,
sia stata addestrato sui video di YouTube, giunge a una conclusione radicale:
“bisogna smettere di ascoltare tutto ciò che Sam Altman ha da dire”.
Il giornalista tech Brian Merchant
(autore del bel libro Blood in the machine, di cui ho parlato in
passato) estende ancora di più il concetto: “la stessa OpenAI è un motore che
si basa sul pensare che tutto ti sia dovuto: di avere il diritto di raccogliere
e riappropriarsi in modo non consensuale delle opere di milioni di scrittori,
programmatori, artisti, designer, illustratori, blogger e autori, il diritto di
usarle per costruire un prodotto a scopo di lucro, il diritto di scavalcare
chiunque all'interno dell'azienda si preoccupi di aver tradito la sua missione
di sviluppare responsabilmente i suoi prodotti. Il diritto di copiare la voce
di una delle star del cinema che ha incassato di più al mondo dopo che lei ha
detto di no”. Gran parte della promessa dell'AI generativa, così come è
attualmente costituita, è guidata da questo modo di pensare, afferma Merchant.
Il fatto che perfino una personalità come Johansson “non riesca a sfuggire allo sfruttamento tech”, per citare le parole dell’autore e podcaster Paris Marx, e che l’arroganza di alcuni magnati e amministratori tech non sembri fermarsi neanche di fronte a celebrità molto più potenti dei comuni cittadini, ci deve far riflettere su quanto abbiamo concesso a quell’arroganza di crescere. Su quanto abbiamo accettato acriticamente la “versione di Altman” e di altri come lui. E su quanto hype continui a spargersi da questo settore...
Nessun commento:
Posta un commento