banner
Centro notizie
I nostri prodotti sono ampiamente amati da coloro che li acquistano.

Giù nei tubi: i comuni tubi in PVC possono hackerare i sistemi di identificazione vocale

Aug 12, 2023

Shimaa Ahmed, una studentessa di dottorato che lavora nel laboratorio del professor Kassem Fawaz, ha determinato un metodo per sconfiggere i sistemi di identificazione automatica degli altoparlanti utilizzando il tipo di tubo in PVC che si trova in qualsiasi negozio di ferramenta. Todd Brown

I ricercatori sono impegnati in una corsa agli armamenti con gli hacker per prevenire il furto di dati. I loro strumenti standard includono strategie come sistemi di autenticazione a più fattori, tecnologia delle impronte digitali e scansioni della retina. Un tipo di sistema di sicurezza che sta guadagnando popolarità è l'identificazione automatica dell'oratore, che utilizza la voce di una persona come codice di accesso.

Questi sistemi, già in uso per il phone banking e altre applicazioni, sono efficaci nell'eliminare gli attacchi che tentano di falsificare la voce di un utente attraverso la manipolazione digitale. Ma gli ingegneri della sicurezza digitale dell’Università del Wisconsin-Madison hanno scoperto che questi sistemi non sono così infallibili quando si tratta di un nuovo attacco analogico. Hanno scoperto che parlare attraverso tubi in PVC personalizzati – del tipo che si trova nella maggior parte dei negozi di ferramenta – può ingannare gli algoritmi di apprendimento automatico che supportano i sistemi di identificazione automatica degli oratori.

Kassam Fawaz è un professore assistente presso il Dipartimento di Ingegneria Elettrica e Informatica. Foto: Althea Dotzour

Il team, guidato dal dottorando Shimaa Ahmed e da Kassem Fawaz, professore di ingegneria elettrica e informatica, ha presentato i risultati il ​​9 agosto all'Usenix Security Symposium ad Anaheim, in California.

I rischi posti dalle falle di sicurezza analogiche potrebbero essere di vasta portata. Ahmed sottolinea che molte società commerciali vendono già la tecnologia, e tra i primi clienti figurano le istituzioni finanziarie. La tecnologia viene utilizzata anche per assistenti personali supportati dall'intelligenza artificiale come Siri di Apple.

"Oggi i sistemi vengono pubblicizzati come sicuri quanto un'impronta digitale, ma questo non è molto preciso", afferma Ahmed. “Tutti questi sono suscettibili di attacchi all’identificazione di chi parla. L'attacco che abbiamo sviluppato è molto economico; prendi semplicemente un tubo dal negozio di ferramenta e cambia la tua voce.

Il progetto è iniziato quando il team ha iniziato a sondare i punti deboli dei sistemi di identificazione automatica degli oratori. Quando parlavano chiaramente, le modelle si comportavano come pubblicizzato. Ma quando parlavano con le mani o in una scatola invece di parlare chiaramente, i modelli non si comportavano come previsto.

Ahmed ha indagato se fosse possibile alterare la risonanza, o vibrazioni di frequenza specifiche, di una voce per sconfiggere il sistema di sicurezza. Poiché il suo lavoro è iniziato mentre era bloccata a casa a causa del COVID-19, Ahmed ha iniziato parlando attraverso tubi di carta assorbente per testare l'idea. Successivamente, dopo essere tornati al laboratorio, il gruppo ha assunto Yash Wani, allora studente universitario e ora dottorando, per aiutare a modificare i tubi in PVC presso l'UW Makerspace. Utilizzando tubi di vari diametri acquistati in un negozio di ferramenta locale, Ahmed, Yani e il loro team hanno modificato la lunghezza e il diametro dei tubi finché non sono riusciti a produrre la stessa risonanza della voce che stavano tentando di imitare.

Alla fine, il team ha sviluppato un algoritmo in grado di calcolare le dimensioni del tubo in PVC necessarie per trasformare la risonanza di quasi ogni voce per imitarne un’altra. In effetti, i ricercatori sono riusciti a ingannare i sistemi di sicurezza con l’attacco del tubo in PVC il 60% delle volte in un set di test di 91 voci, mentre gli imitatori umani inalterati sono riusciti a ingannare i sistemi solo il 6% delle volte.

L’attacco spoofing funziona per un paio di ragioni. Innanzitutto, poiché il suono è analogico, bypassa i filtri di attacco digitale del sistema di autenticazione vocale. In secondo luogo, il tubo non trasforma una voce nella copia esatta di un’altra, ma falsifica invece la risonanza della voce di destinazione, il che è sufficiente a far sì che l’algoritmo di apprendimento automatico classifichi erroneamente la voce attaccante.

Fawaz afferma che parte della motivazione alla base del progetto è semplicemente quella di avvisare la comunità della sicurezza che l'identificazione vocale non è così sicura come molte persone pensano, anche se afferma che molti ricercatori sono già consapevoli dei difetti della tecnologia.

Il progetto ha anche un obiettivo più grande.