L’intelligenza artificiale può clonare la voce umana in modo pressoché perfetto e generare file audio deepfake con cui perpetrare truffe e generare disinformazione.
Fino a qualche tempo fa l’intelligenza artificiale riusciva a clonare la voce basandosi su campioni audio piuttosto lunghi (almeno 30 minuti), che dovevano rispettare specifici standard qualitativi ed espressivi per poter consentire all’algoritmo di sintetizzare la voce alla perfezione; oggi può bastare un semplice vocale WhatsApp.
Per evitare che succeda è bene anzitutto limitare il consenso all’utilizzo dei cookies che viene chiesto quando si naviga in rete ed è poi opportuno avvalersi degli strumenti tecnologici in via di sviluppo per impedire di vedersi rubare la voce, come ad esempio AntiFake. Negli Usa sono già numerosi vip e star che hanno lamentato di aver vista clonata la propria voce lamentando di non aver acconsentito e reclamando i diritti di autore del caso e nelle primarie per la scelta del prossimo presidente americano sono stati utilizzati anche messaggi con la voce registrata dei candidati stessi per distogliere gli elettori avversari dal recarsi a votare.
La buona notizia è che alcune aziende che sviluppano intelligenza artificiale e dunque la connessa possibilità di clonare la voce hanno intanto annunciato che non renderanno accessibile al pubblico la funzione di duplicazione della voce almeno fino a quando i sistemi bancari non avranno rimosso o meglio tutelata i sistemi di accesso ai conti individuali basati sulla voce (oggi clonabile) di chi è titolare del conto stesso.