Quando l’IA ha ridato la voce a Val Kilmer

Il ritorno di Iceman in “Top Gun: Maverick” è stato reso possibile dall'intelligenza artificiale della startup londinese Sonantic, che ha clonato la voce dell’attore per poi doppiarlo

di Alessio Jacona

Tra i protagonisti di “Top Gun: Maverick” c’è anche l’intelligenza artificiale: è grazie ad essa, infatti, che l’attore Val Kilmer è potuto tornare a vestire i panni del pilota Iceman, e soprattutto a parlare con Tom Cruise/ Maverick nonostante i danni irreparabili subiti alla voce per un cancro alla gola e una tracheotomia nel 2014.

 

Come rivela Fortune, la tecnologia utilizzata è stata sviluppata dalla startup londinese Sonantic, che ha collaborato con Kilmer dell’agosto 2021 per mettere a punto una versione sintetica e allo stesso tempo credibile della voce dell’attore. Non era la prima volta: Sonantic utilizza già da tempo l'intelligenza artificiale per creare voci che poi vengono utilizzate nei videogiochi, nella produzione sonora di Hollywood e nella logopedia.

 

L’azienda ha infatti creato una piattaforma vocale AI basata su deep learning che consente ai professionisti dell'intrattenimento di creare performance vocali piuttosto realistiche. Grazie a questi modelli vocali, le case di produzione possono già oggi velocizzare i flussi di lavoro creativi, per esempio accelerando artificialmente la registrazione di voci narranti quando fanno “leggere” alle macchine grandi quantità di testo in brevissimo tempo. È il caso dei videogiochi che simulano gli sport: ormai tutti hanno le telecronache incorporate, di solito con le voci di cronisti popolari, i quali sembrano reagire con genuino entusiasmo a ogni azione del giocatore. In realtà, il software del gioco utilizza migliaia di frasi pre registrate che, con un’IA come quella di Sonantic, ora possono essere approntate in molto meno tempo che utilizzando lo speaker in carne ed ossa.

 

Nel caso di “Top Gun: Maverick”, però, le cose erano più difficili del solito: invece di lavorare con speaker professionisti e attori, che registrano lunghe sessioni audio in ambiente controllato con cui poi si fa il training dell’AI, i tecnici avevano a disposizione tutto sommato poche registrazioni della voce di Kilmer, quasi tutte dai film in cui l’attore ha recitato. Una quantità di dati insufficiente rispetto alle tecnologia allora disponibile, e che quindi ha spinto Sonantic a sviluppare nuovi algoritmi in grado di performare anche con una quantità di dati dieci volte inferiori alla norma. Così impostato, il sistema ha generato oltre 40 modelli vocali diversi, tra cui è stato selezionato quello più adatto a “doppiare” Val Kilmer nel film.

 

Il risultato è molto vicino all’originale e se, da un lato, è possibile apprezzarne gli evidenti vantaggi, dall’altro suscita qualche preoccupazione: sebbene infatti le voci generate con la piattaforma di Sonantic (e delle molte altre aziende impegnate su questo fronte) alla fine risultano ancora riconoscibile come “artificiali”, resta il pericolo che queste tecnologie, via via sempre più efficienti, vengano utilizzate per creare audio deepfake con cui truffare persone e aziende.

 

Del resto, è già successo: nel 2020, ad esempio, Symantec segnalava almeno tre casi di deepfake audio utilizzati per trafugare milioni di euro ad aziende private, replicando la voce dell'amministratore delegato dell'azienda. In quel caso, i criminali avevano addestrato i motori vocali dando loro in pasto conferenze in streaming, video su YouTube e su altri social

media, persino sui discorsi di TED dei capi d'azienda di cui volevano clonare la voce. Il passo successivo, poi, era stato utilizzare l’IA per chiamare i membri più anziani della divisione finanziaria e chiedere loro l'invio urgente di fondi.

RIPRODUZIONE RISERVATA © Copyright ANSA