L’intelligenza artificiale è sempre più un punto di riferimento per il settore tech, con tante applicazioni che la rendono utile per gli utenti finali. Da tempo, però, è noto che l’IA può essere utilizzata anche per scopi fraudolenti, come per la creazione di deepfake, contenuti multimediali molto realistici creati per imitare le persone utilizzando immagini, video e audio.

I deepfake sono oggi una minaccia da non sottovalutare, possono creare disinformazione e possono mettere a rischio la privacy e la sicurezza degli utenti. Per i rilevare i contenuti creati con l’IA con lo scopo di creare illeciti di vario tipo sono disponibili diversi strumenti. Ad arricchire i sistemi di identificazione dei deepfake arriva la nuova tecnologia sviluppata da HONOR.

L’azienda cinese ha realizzato l’AI Deepfake Detection, una particolare tecnologia in grado di rilevare le falsificazioni facciali nei video, avvisando l’utente in merito ai rischi legati a un possibile deepfake. Questa tecnologia è un esempio delle potenzialità dell’intelligenza artificiale per la protezione degli utenti.

HONOR continua a lavorare per sviluppare soluzioni in grado di sfruttare al meglio l’IA. Di recente, l’azienda ha svelato un sistema per risolvere il problema della miopia grazie all’applicazione dell’intelligenza artificiale.

AI Deepfake Detection: come funziona la tecnologia di HONOR

La soluzione realizzata da HONOR permette di sfruttare l’AI on device per individuare falsificazione facciali. Il sistema è in grado di analizzare, nei minimi dettagli, un video al fine di individuare delle potenziali manomissioni che potrebbero aver alterato il messaggio contenuto nello stesso.

Anche piccole modifiche possono generare dei video fake, alterando completamente il messaggio originale. L’intelligenza artificiale, addestrata su un vasto set di dati di video e immagini, può rilevare rapidamente un deepfake e può avvisare l’utente in merito al rischio di essere di fronte a un tentativo di frode.

Il sistema è in grado di rilevare le imperfezioni a livello di pixel, gli artefatti di composizione dei bordi e la continuità dei fotogrammi, analizzando nei minimi dettagli l’intero file video, alla ricerca di possibili manomissioni. Basta una piccola anomalia per attivare i sistemi di protezione dell’IA.

Per ottenere una protezione completa contro i rischi dell’intelligenza artificiale, HONOR, per i suoi dispositivi, ha implementato una serie di protezioni a livello di chip che oggi fanno parte integrante di HONOR MagicOS. Con MagicGuard, ad esempio, è possibile sfruttare tre livelli di protezione, per chipset, OS e applicazioni, e per proteggere i dati degli utenti è possibile ricorrere alla crittografia a livello hardware.