deepfake voice scams 7 18
 Clonare la voce di qualcuno è più facile che mai. D-Keine/iStock tramite Getty Images

Sei appena tornato a casa dopo una lunga giornata di lavoro e stai per sederti a cena quando improvvisamente il tuo telefono inizia a suonare. Dall'altra parte c'è una persona cara, forse un genitore, un figlio o un amico d'infanzia, che ti prega di inviargli denaro immediatamente.

Fai loro domande, cercando di capire. C'è qualcosa di strano nelle loro risposte, che sono o vaghe o fuori dal carattere, ea volte c'è uno strano ritardo, quasi come se stessero pensando un po' troppo lentamente. Tuttavia, sei certo che sia sicuramente la persona amata a parlare: questa è la sua voce che senti e l'ID del chiamante mostra il suo numero. Considerando la stranezza del loro panico, invii diligentemente i soldi sul conto bancario che ti forniscono.

Il giorno dopo, li richiami per assicurarti che sia tutto a posto. La persona amata non ha idea di cosa stai parlando. Questo perché non ti hanno mai chiamato: sei stato ingannato dalla tecnologia: una voce deepfake. Migliaia di persone lo erano truffato in questo modo nel 2022.

La possibilità di clonare la voce di una persona è sempre più alla portata di chiunque disponga di un computer.


innerself subscribe graphic


 

As sicurezza del computer ricercatori, vediamo che i continui progressi negli algoritmi di apprendimento profondo, nell'editing e nell'ingegneria audio e nella generazione di voci sintetiche hanno fatto sì che sia sempre più possibile simulare in modo convincente la voce di una persona.

Ancora peggio, i chatbot come ChatGPT stanno iniziando a generare script realistici con risposte adattive in tempo reale. Di combinando queste tecnologie con la generazione della voce, un deepfake passa dall'essere una registrazione statica a un avatar dal vivo e realistico che può avere una conversazione telefonica in modo convincente.

Clonazione di una voce

Creare un deepfake avvincente di alta qualità, sia esso video o audio, non è la cosa più facile da fare. Richiede una vasta gamma di capacità artistiche e tecniche, hardware potente e un campione abbastanza consistente della voce target.

Ci sono un numero crescente di servizi offerti a produrre cloni vocali di qualità medio-alta a pagamentoe alcuni strumenti di deepfake vocale richiedono un campione di lungo solo un minutoo anche solo pochi secondi, per produrre un clone vocale che potesse essere abbastanza convincente da ingannare qualcuno. Tuttavia, per convincere una persona cara, ad esempio da utilizzare in una truffa per furto d'identità, sarebbe probabilmente necessario un campione significativamente più ampio.

I ricercatori sono stati in grado di clonare le voci con appena cinque secondi di registrazione.

 

Protezione da truffe e disinformazione

Detto questo, noi del Progetto DeFake del Rochester Institute of Technology, dell'Università del Mississippi e della Michigan State University, e altri ricercatori stanno lavorando duramente per essere in grado di rilevare i deepfake video e audio e limitare i danni che causano. Ci sono anche azioni semplici e quotidiane che puoi intraprendere per proteggerti.

Per cominciare, phishing vocale, o "vishing", le truffe come quella sopra descritta sono i deepfake vocali più probabili che potresti incontrare nella vita di tutti i giorni, sia al lavoro che a casa. Nel 2019, un società energetica è stata truffata per 243,000 dollari quando i criminali hanno simulato la voce del capo della società madre per ordinare a un dipendente di trasferire fondi a un fornitore. Nel 2022, le persone lo erano truffato su una stima di $ 11 milioni da voci simulate, anche di stretti legami personali.

Cosa si può fare?

Fai attenzione alle chiamate inaspettate, anche da persone che conosci bene. Questo non vuol dire che devi programmare ogni chiamata, ma aiuta almeno a inviare e-mail o messaggi di testo in anticipo. Inoltre, non fare affidamento sull'ID chiamante, poiché anche questo può essere simulato. Ad esempio, se ricevi una chiamata da qualcuno che afferma di rappresentare la tua banca, riaggancia e chiama direttamente la banca per confermare la legittimità della chiamata. Assicurati di utilizzare il numero che hai annotato, salvato nella tua rubrica o che puoi trovare su Google.

Inoltre, fai attenzione alle tue informazioni di identificazione personale, come il numero di previdenza sociale, l'indirizzo di casa, la data di nascita, il numero di telefono, il secondo nome e persino i nomi dei tuoi figli e animali domestici. I truffatori possono utilizzare queste informazioni per impersonarti davanti a banche, agenti immobiliari e altri, arricchendosi mentre ti mandano in bancarotta o distruggono il tuo credito.

Ecco un altro consiglio: conosci te stesso. In particolare, conosci i tuoi pregiudizi e le tue vulnerabilità intellettuali ed emotive. Questo è un buon consiglio di vita in generale, ma è la chiave per proteggersi dall'essere manipolati. I truffatori in genere cercano di scoprire e poi depredare le tue ansie finanziarie, i tuoi attaccamenti politici o altre inclinazioni, qualunque esse siano.

Questa vigilanza è anche una difesa decente contro la disinformazione che utilizza i deepfake vocali. Deepfakes può essere utilizzato per sfruttare il tuo bias di conferma, o quello che sei incline a credere su qualcuno.

Se senti una persona importante, sia della tua comunità che del governo, dire qualcosa che sembra molto insolito per loro o conferma i tuoi peggiori sospetti su di loro, sarebbe saggio essere prudenti.The Conversation

Riguardo agli Autori

Matthew Wright, Professore di sicurezza informatica, Rochester Institute of Technology ed Cristoforo Schwartz, Ricercatore post-dottorato in Sicurezza informatica, Rochester Institute of Technology

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.