L’intelligenza artificiale continua, nel bene e nel male, a caratterizzare questo periodo storico. Sebbene questa tecnologia stia portando a una vera rivoluzione in molti campi, dall’altro lato ha aperto le porte a nuove tipologie di attacco da parte di cyber-criminali, truffatori e aggressori di vario tipo. Google è in prima linea sul fronte dell’IA e, consapevole di quanto sia importante contenere questo tipo di minacce, ha annunciato nuovi modi per sfruttare l’IA come arma per la cyber-difesa.
Tra le nuove iniziative rientrano CodeMender (un agente basato sull’IA che migliora la sicurezza del codice in automatico), il Programma AI VRP (ricompensa per le vulnerabilitĂ legate all’IA) e l’aggiornamento del Secure AI Framework (alla versione SAIF 2.0). Andiamo a scoprire tutti i dettagli.
Indice:
Google ha annunciato CodeMender
CodeMender è un nuovo agente basato sull’intelligenza artificiale che il colosso di Mountain View ha sviluppato per la cosiddetta “autodifesa autonoma” in ambito intelligenza artificiale.
Esso sfrutta le capacitĂ avanzate di ragionamento dei modelli Gemini per correggere automaticamente le vulnerabilitĂ critiche che riscontra nel codice, accelerando i tempi di applicazione delle patch di sicurezza e aumentando la sicurezza nel panorama open-source.
Tra le caratteristiche principali di CodeMender rientrano l’analisi della causa tramite metodi sofisticati e l’applicazione di patch “auto-validate” (agenti specializzati in questo convalidano la correttezza del codice prima della convalida finale lasciata in mano agli utenti “umani”).
Segui Google Italia su Telegram, ricevi news e offerte per primo
Google ha avviato il programma AI VRP
Con l’obiettivo di rafforzare la partnership con la community globale nel segmento della ricerca, Google ha poi lanciato il programma AI Vulnerability Reward Program (AI VRP), uno strumento che copre sia questioni di sicurezza che di abuso relative all’IA.
Esso stabilisce un set unico e completo di regole e alcune tabelle di ricompensa per incentivare i ricercatori a segnalare le criticitĂ ad alto impatto; tali criticitĂ potranno essere segnalate tramite il classico meccanismo di feedback integrato nei vari prodotti (questo passaggio è fondamentale perchĂ© è l’unico modo per l’acquisizione dei metadati legati al contesto dell’utente, la versione del modello, e tutti gli altri dati necessari al team di sicurezza).
Il Secure AI Framework viene aggiornato alla versione SAIF 2.0
Per affrontare al meglio i rischi (in rapida evoluzione) posti dall’IA agenziale, quella che possiamo definire come (quasi) autonoma), Google ha aggiornato il suo Secure AI Framework (SAIF) alla versione SAIF 2.0: in questo modo, vengono estese le linee guida esistenti, includendo la sicurezza relativa agli agenti IA e i controlli di mitigazione automatica. Tale versione del framework è supportata da tre nuovi elementi:
- Agent Risk Map (per aiutare gli operatori a mappare le minacce provenienti dall’IA agenziale attraverso una panoramica completa)
- Introduzione della CapacitĂ di Sicurezza degli agenti (per garantire che siano sicuri “da progetto”, con controllori “umani” ben definiti, con poteri limitati e con capacitĂ di effettuare/pianificare azioni osservabili)
- Donazione dei dati della Agent Risk Map alla CoSAI (Coalition for Secure AI Risk Map Initiative) per far progredire ulteriormente la sicurezza.
Il futuro è mettere a punto strumenti di IA proattiva per la cyber-difesa
Oltre all’introduzione di queste tre novitĂ , il team di sicurezza di Google continua a lavorare per andare oltre rispetto alla semplice mitigazione delle nuove minacce legate all’IA, con l’ambizione di utilizzare l’intelligenza artificiale come un vero e proprio strumento proattivo per la cyber-difesa.
In tal senso, Big G ha condiviso la propria metodologia per la progettazione di agenti IA sicuri, ha stretto partnership con agenzie come DARPA e ha assunto un ruolo di primo piano in alleanze del settore come la CoSAI.
Il nostro impegno nell’utilizzare l’IA per ribaltare radicalmente l’equilibrio della sicurezza informatica a favore dei difensori è un impegno duraturo e a lungo termine per fare tutto il necessario per garantire tecnologie all’avanguardia. Stiamo mantenendo questo impegno lanciando CodeMender per la difesa autonoma, collaborando strategicamente con la comunitĂ di ricerca globale attraverso l’AI VRP e ampliando il nostro framework di settore con SAIF 2.0 per proteggere gli agenti di IA. Con queste e altre iniziative future, ci stiamo assicurando che la potenza dell’IA rimanga un vantaggio decisivo per la sicurezza e la protezione.