
Diverse sono le nuove abilità di Alexa che sono state messe a punto e, tra tutte, forse la più inquietante è quella di essere in grado di imitare le voci di qualsiasi persona dopo un minuto di ascolto di un audio campione. Quest'ultima ci permetterà di continuare a parlare con i nostri cari anche dopo la loro morte ma, andiamo a vedere quanto ne sappiamo.
-
Leggi anche:
- Torna Squid Game: quando esce la seconda stagione
- PlayStation plus: cos'è, come funziona e quanto costa il nuovo servizio per giocare online
- Cosa vedere su Netflix a Giugno 2022? Serie Tv consigliate
La nuova abilità di Alexa: l'imitazione di qualsiasi voce
In occasione dell'Amazon Re:Mars conference a Las Vegas, diverse sono state le novità in arrivo su Alexa e tra queste quella sicuramente più rilevante è la capacità di imitare qualsiasi voce. E' stato mostrato un video in cui Alexa è intenta a leggere una favola della buona notte a un bambino con la voce della nonna morta poco tempo prima.Questa nuova abilità, secondo quanto raccontato ad Engadget da un portavoce di Amazon, richiede un minuto di file audio della persona da imitare. Un sistema molto rapido che va a calibrare il text-to-voice di Alexa in modo da essere in grado di modulare i diversi toni riuscendo a imitare i timbri più disparati. A riguardo lo stesso Prasad ha commentato:"Viviamo in un'epoca d'oro dell'intelligenza artificiale e se l'AI non può eliminare il dolore di una perdita, può di sicuro far sì che le memorie rimangano".
Il problema etico e la possibilità di truffe
Uno dei principali problemi sull'imitazione vocale di Alexa però riguarda sicuramente il profilo etico: l'imitazione di qualsiasi voce è una sorta di deepfake a livello audio con la rappresentazione del timbro di una persona che potrebbe non aver mai acconsentito a questa procedura e questo è valido non solo per chi è in vita ma sopratutto per chi non c'è più.Dall'altro lato questa nuova abilità dell'imitazione vocale potrebbe anche essere utilizzata per scopi illeciti come è già accaduto l'anno scorso nel caso di un trasferimento di oltre 30 milioni di euro da una banca degli Emirati Arabi a un criminale tech che aveva impersonato un dirigente.
Paolo Di Falco