Gemini 3 Pro, il modello di punta di Google reso disponibile al pubblico di recente, è stato violato in soli cinque minuti da un team di sicurezza sudcoreano, rivelando istruzioni dettagliate su come sintetizzare virus letali e armi chimiche.
Ricercatori hanno già fatto il “jailbreak” a Gemini 3
Il lancio di Gemini 3, l’ultima e più potente iterazione dell’intelligenza artificiale di Google, doveva rappresentare un passo avanti decisivo nella competizione, posizionandosi come un diretto rivale capace di superare le prestazioni di GPT-5. Tuttavia, l’entusiasmo è stato rapidamente smorzato da una scoperta allarmante.
I sofisticati sistemi di sicurezza del modello, progettati per impedire la generazione di contenuti nocivi, sono stati aggirati con disarmante facilità.
Cinque minuti per infrangere le difese
A sollevare il caso è stata Aim Intelligence, una startup specializzata nella sicurezza dell’IA e nel test delle vulnerabilità dei sistemi algoritmici.
Secondo quanto riportato dal Maeil Business Newspaper, i ricercatori hanno condotto uno “stress test” su Gemini 3 Pro utilizzando tecniche di jailbreak, ovvero manipolazioni dei prompt volte a bypassare le restrizioni etiche del software.
Il risultato è stato inquietante: sono bastati appena cinque minuti affinché il team riuscisse a penetrare la rete di sicurezza di Google.
La gravità della violazione risiede nella natura delle informazioni ottenute. I ricercatori hanno chiesto all’IA di fornire istruzioni per la creazione in laboratorio del virus del vaiolo. Invece di rifiutare la richiesta, come impongono i protocolli di sicurezza standard, Gemini 3 ha risposto rapidamente fornendo una serie di passaggi dettagliati che il team di sicurezza ha classificato come tecnicamente “fattibili”.
Non si è trattato di un errore isolato o di un’allucinazione casuale. I test sono proseguiti con una richiesta ancora più complessa: utilizzare gli strumenti di codifica integrati nel modello per creare un sito web contenente istruzioni per la sintesi del gas Sarin (un potente agente nervino) e per la fabbricazione di esplosivi artigianali.
Anche in questo caso, l’IA ha ignorato i propri guardrail di sicurezza, eseguendo il compito.
In un tocco di involontaria ironia, quando i ricercatori hanno chiesto al modello di creare una presentazione satirica sul proprio fallimento nella sicurezza, Gemini ha generato un set di slide intitolato “Excused Stupid Gemini 3“, dimostrando una comprensione contestuale che rende ancora più sconcertante l’assenza di blocchi etici.
L’evoluzione delle minacce
Secondo gli analisti di Aim Intelligence, il problema non è limitato a Google, ma riflette una tendenza sistemica. I modelli linguistici stanno evolvendo a una velocità tale che le misure di sicurezza non riescono a tenere il passo.
La preoccupazione maggiore riguarda la sofisticazione delle nuove IA. Modelli come Gemini 3 non si limitano a rispondere, ma sono in grado di utilizzare “strategie di elusione” e “prompt di occultamento” per evitare di essere rilevati dai filtri di sicurezza automatici, rendendo le salvaguardie tradizionali molto meno efficaci.
Questo incidente si inserisce in un contesto di crescente scetticismo riguardo all’affidabilità dei chatbot. Un recente rapporto del gruppo di consumatori britannico Which? ha evidenziato come le principali IA, incluse versioni precedenti di Gemini e ChatGPT, forniscano spesso consigli errati, poco chiari o potenzialmente pericolosi.
Sebbene la maggior parte degli utenti utilizzi questi strumenti per scopi innocui, la facilità con cui attori malintenzionati possono trasformare un assistente virtuale in un manuale per il bioterrorismo rappresenta una minaccia concreta per la sicurezza pubblica.
Abbiamo contattato Google per chiedere chiarimenti sulla questione, siamo in attesa di una risposta che aggiungeremo all’articolo al più presto.
