Le truffe telefoniche evolvono con l’intelligenza artificiale: voci sintetiche, accenti perfetti e nuovi rischi per i consumatori.
Le chiamate sospette non sono una novità. Ma negli ultimi mesi qualcosa è cambiato, e si sente. Letteralmente. Le voci sono più credibili, gli accenti più naturali, le storie meglio costruite. Il salto lo ha fatto l’intelligenza artificiale, e chi vive di truffe se n’è accorto subito.
Secondo Clayton LiaBraaten, esperto di tecnologia e presidente di PueIntegration, il problema è ormai evidente: “la IA viene utilizzata come arma contro i consumatori”. Non è una provocazione. È una fotografia piuttosto nitida di quello che sta succedendo, soprattutto nel mondo delle telefonate fraudolente.
La differenza rispetto al passato è sottile ma decisiva. Non si tratta più solo di numeri sconosciuti o di tentativi goffi. Oggi chi chiama può sembrare davvero chi dice di essere. E questo cambia tutto.
Uno degli aspetti più inquietanti è la capacità dell’intelligenza artificiale di sintetizzare la voce. Non solo imitazioni generiche, ma riproduzioni sempre più precise, capaci di replicare tono, ritmo e inflessione. In alcuni casi, persino persone reali.
LiaBraaten lo spiega in modo diretto: oggi è possibile costruire conversazioni più convincenti, con script raffinati e accenti perfettamente localizzati. Questo significa che una chiamata proveniente dall’Est Europa o dall’Asia può suonare esattamente come quella di un operatore americano, italiano o di qualsiasi altro Paese.
Il risultato è un livello di fiducia più alto. E quindi, un rischio maggiore.
Non è un fenomeno nato ieri. Già nel 2023, negli Stati Uniti, si erano registrati episodi in cui i truffatori avevano provato a imitare la voce di una bambina per convincere un familiare a inviare denaro. Tentativi ancora imperfetti, ma già abbastanza credibili da generare panico.
Oggi quella tecnologia è migliorata. E si è diffusa.
Il punto non è solo tecnico. È psicologico. Le truffe funzionano quando riescono a creare urgenza, paura o fiducia. Se la voce dall’altra parte sembra reale, il margine di difesa si riduce drasticamente, soprattutto per chi non ha familiarità con questi strumenti.
Il paradosso è evidente: per contrastare le truffe basate sull’intelligenza artificiale, si sta usando altra intelligenza artificiale.
Le aziende che si occupano di sicurezza stanno sviluppando sistemi in grado di riconoscere le voci sintetiche, individuando anomalie nei modelli vocali o nelle dinamiche delle chiamate. È una corsa continua, fatta di aggiornamenti e contromisure.
Ma il problema resta aperto. Perché la tecnologia evolve velocemente, e chi la usa per truffare non ha vincoli né regole.
Nel frattempo, il fenomeno ha superato i confini statunitensi. Le dinamiche osservate negli USA si stanno replicando altrove, Europa compresa. Cambiano le lingue, non il meccanismo.
Per il consumatore medio, distinguere tra una chiamata autentica e una costruita artificialmente diventa sempre più difficile. Non basta più diffidare dei numeri sconosciuti o degli errori evidenti: oggi le truffe sono più pulite, più lineari, più credibili.
In questo scenario, l’attenzione resta l’unico vero filtro. Non infallibile, ma necessario.
La sensazione è che siamo entrati in una fase diversa. Non tanto perché le truffe siano aumentate, ma perché sono cambiate. Più sofisticate, meno riconoscibili. E, proprio per questo, più pericolose.
Chi lavora nella sicurezza prova a rincorrere il fenomeno. Chi prova a truffare, invece, sembra aver trovato un alleato potente. E, almeno per ora, sta giocando d’anticipo.