L’intelligenza artificiale continua, nel bene e nel male, a caratterizzare questo periodo storico. Sebbene questa tecnologia stia portando a una vera rivoluzione in molti campi, dall’altro lato ha aperto le porte a nuove tipologie di attacco da parte di cyber-criminali, truffatori e aggressori di vario tipo. Google è in prima linea sul fronte dell’IA e, consapevole di quanto sia importante contenere questo tipo di minacce, ha annunciato nuovi modi per sfruttare l’IA come arma per la cyber-difesa.

Tra le nuove iniziative rientrano CodeMender (un agente basato sull’IA che migliora la sicurezza del codice in automatico), il Programma AI VRP (ricompensa per le vulnerabilità legate all’IA) e l’aggiornamento del Secure AI Framework (alla versione SAIF 2.0). Andiamo a scoprire tutti i dettagli.

Offerta
-41%

Google Pixel 9

529€ invece di 899€
Offerta
-41%

MOTOROLA Moto Tag

19.9€ invece di 33.99€
Offerta
-27%

ECOVACS X9 PRO OMNI

16600 Pa BLAST, OZMO Roller

799€ invece di 1099€
Offerta
-33%

Samsung Galaxy S25 Ultra

Snapdragon 8 Elite Gen2, 200mpx camera, 12/256 GB

869€ invece di 1299€
Offerta
-29%

DREAME X50 Ultra Complete

999€ invece di 1399€

Google ha annunciato CodeMender

CodeMender è un nuovo agente basato sull’intelligenza artificiale che il colosso di Mountain View ha sviluppato per la cosiddetta “autodifesa autonoma” in ambito intelligenza artificiale.

Esso sfrutta le capacità avanzate di ragionamento dei modelli Gemini per correggere automaticamente le vulnerabilità critiche che riscontra nel codice, accelerando i tempi di applicazione delle patch di sicurezza e aumentando la sicurezza nel panorama open-source.

Tra le caratteristiche principali di CodeMender rientrano l’analisi della causa tramite metodi sofisticati e l’applicazione di patch “auto-validate” (agenti specializzati in questo convalidano la correttezza del codice prima della convalida finale lasciata in mano agli utenti “umani”).

Segui Google Italia su Telegram, ricevi news e offerte per primo

Google ha avviato il programma AI VRP

Con l’obiettivo di rafforzare la partnership con la community globale nel segmento della ricerca, Google ha poi lanciato il programma AI Vulnerability Reward Program (AI VRP), uno strumento che copre sia questioni di sicurezza che di abuso relative all’IA.

Esso stabilisce un set unico e completo di regole e alcune tabelle di ricompensa per incentivare i ricercatori a segnalare le criticità ad alto impatto; tali criticità potranno essere segnalate tramite il classico meccanismo di feedback integrato nei vari prodotti (questo passaggio è fondamentale perché è l’unico modo per l’acquisizione dei metadati legati al contesto dell’utente, la versione del modello, e tutti gli altri dati necessari al team di sicurezza).

Il Secure AI Framework viene aggiornato alla versione SAIF 2.0

Per affrontare al meglio i rischi (in rapida evoluzione) posti dall’IA agenziale, quella che possiamo definire come (quasi) autonoma), Google ha aggiornato il suo Secure AI Framework (SAIF) alla versione SAIF 2.0: in questo modo, vengono estese le linee guida esistenti, includendo la sicurezza relativa agli agenti IA e i controlli di mitigazione automatica. Tale versione del framework è supportata da tre nuovi elementi:

  • Agent Risk Map (per aiutare gli operatori a mappare le minacce provenienti dall’IA agenziale attraverso una panoramica completa)
  • Introduzione della Capacità di Sicurezza degli agenti (per garantire che siano sicuri “da progetto”, con controllori “umani” ben definiti, con poteri limitati e con capacità di effettuare/pianificare azioni osservabili)
  • Donazione dei dati della Agent Risk Map alla CoSAI (Coalition for Secure AI Risk Map Initiative) per far progredire ulteriormente la sicurezza.

Il futuro è mettere a punto strumenti di IA proattiva per la cyber-difesa

Oltre all’introduzione di queste tre novità, il team di sicurezza di Google continua a lavorare per andare oltre rispetto alla semplice mitigazione delle nuove minacce legate all’IA, con l’ambizione di utilizzare l’intelligenza artificiale come un vero e proprio strumento proattivo per la cyber-difesa.

In tal senso, Big G ha condiviso la propria metodologia per la progettazione di agenti IA sicuri, ha stretto partnership con agenzie come DARPA e ha assunto un ruolo di primo piano in alleanze del settore come la CoSAI.

Il nostro impegno nell’utilizzare l’IA per ribaltare radicalmente l’equilibrio della sicurezza informatica a favore dei difensori è un impegno duraturo e a lungo termine per fare tutto il necessario per garantire tecnologie all’avanguardia. Stiamo mantenendo questo impegno lanciando CodeMender per la difesa autonoma, collaborando strategicamente con la comunità di ricerca globale attraverso l’AI VRP e ampliando il nostro framework di settore con SAIF 2.0 per proteggere gli agenti di IA. Con queste e altre iniziative future, ci stiamo assicurando che la potenza dell’IA rimanga un vantaggio decisivo per la sicurezza e la protezione.