Un gruppo di ricercatori ha utilizzato una rete neurale per generare impronte digitali artificiali che funzionano come una “chiave principale” per i sistemi di identificazione biometrica e dimostrare che è possibile creare impronte false.

Stando a un documento presentato a una conferenza sulla sicurezza a Los Angeles, le impronte digitali generate artificialmente, soprannominate “DeepMasterPrints” dai ricercatori della New York University, sono state in grado di imitare più di un’impronta digitale su cinque in un sistema biometrico che dovrebbe avere solo un tasso di errore di uno su mille.

Secondo i ricercatori, “il metodo sviluppato è probabile che abbia ampie applicazioni nella sicurezza delle impronte digitali e nella loro sintesi”.

Per funzionare, i DeepMasterPrints sfruttano due caratteristiche dei sistemi di autenticazione basati su impronta digitale. La prima è che, per ragioni ergonomiche, la maggior parte degli scanner non legge l’intero dito in una sola volta e confronta semplicemente la scansione parziale con i record parziali. Ciò significa che un utente malintenzionato deve abbinare solo una delle decine o centinaia di impronte digitali parziali salvate per ottenere l’accesso.

La seconda è che alcune caratteristiche delle impronte sono più comuni di altre. Ciò significa che una stampa falsa che contiene molte caratteristiche comuni è più probabile che corrisponda ad altre impronte digitali.

Sulla base di queste intuizioni, i ricercatori hanno utilizzato una tecnica di apprendimento automatico comune per creare artificialmente nuove impronte digitali che corrispondessero al maggior numero possibile di impronte parziali.

I produttori di smartphone sono avvisati: non è possibile abbassare la guardia se si vuole garantire il massimo livello di sicurezza (qui le ultime novità di Google).