L’imitazione di un prodotto di successo è una pratica antica quanto il commercio stesso, ma l’avvento dell’intelligenza artificiale ha trasformato radicalmente le modalità con cui la concorrenza cerca di appropriarsi dei segreti industriali altrui.
Se un tempo il reverse engineering richiedeva lo smontaggio fisico di un macchinario o la decodifica complessa di un software, oggi la sfida si gioca sul piano delle interrogazioni semantiche.
Secondo l’ultimo rapporto diffuso dal Threat Intelligence Group di Google, Mountain View ha recentemente sventato un tentativo di clonazione del suo modello di punta, Gemini, operato attraverso una strategia tanto semplice quanto insidiosa: un bombardamento di domande.
Gemini sotto attacco, hanno cercato di clonarlo
Il report evidenzia come un singolo attore abbia inviato oltre 100.000 prompt al chatbot, mettendo in atto quella che gli esperti definiscono un’operazione di estrazione del modello o “distillazione”.
In termini tecnici, questa pratica consiste nell’interrogare ripetutamente un sistema di intelligenza artificiale avanzato per studiarne le risposte e utilizzare quei dati output per addestrare un sistema concorrente, spesso più piccolo ed economico.
La peculiarità di questi attacchi risiede nella loro natura: gli esecutori non violano i server di Google né cercano falle di sicurezza informatica tradizionali.
Al contrario, utilizzano le API ufficiali e legittime fornite dall’azienda, abusandone tuttavia per finalità che violano i termini di servizio.
Per Google, questa attività equivale a un vero e proprio furto di proprietà intellettuale, mirato a replicare le capacità del modello senza sostenerne gli ingenti costi di sviluppo e ricerca.
A caccia del ragionamento complesso
L’attacco descritto nel documento è estremamente mirato. I responsabili della campagna hanno cercato di forzare Gemini a rivelare i dettagli del suo processo decisionale interno, noto come “catena di pensiero” (chain of thought).
Normalmente, i modelli di linguaggio non espongono tutti i passaggi logici che portano a una conclusione, ma attraverso prompt specifici e reiterati, gli attaccanti speravano di catturare questa capacità di ragionamento per trasferirla su un proprio sistema.
L’obiettivo era replicare non solo la logica deduttiva di Gemini in diversi contesti, ma anche le sue competenzemultilingue. Fortunatamente, i sistemi di monitoraggio di Google hanno rilevato l’attività anomala in tempo reale.
L’analisi dei flussi di dati ha permesso agli ingegneri di identificare il tentativo di estrazione su larga scala e di ricalibrare le protezioni del software, impedendo che i dettagli sensibili sul funzionamento interno dell’IA venissero esposti.
Concorrenza sleale e altri rischi
Sebbene il gigante tecnologico abbia scelto di non divulgare i nomi dei sospettati, il rapporto suggerisce che la maggior parte di questi tentativi provenga da aziende private e ricercatori alla ricerca di un vantaggio competitivo rapido.
John Hultquist, analista capo del gruppo di intelligence di Google, ha sottolineato come questa tendenza sia destinata a crescere.
Man mano che sempre più imprese cercheranno di costruire sistemi di IA personalizzati, la tentazione di “copiare i compiti” dai leader del settore diventerà sempre più forte, trasformando la distillazione in una minaccia sistemica per l’industria.
Il documento non si limita a denunciare i tentativi di clonazione. Oltre all’estrazione del modello, Google ha individuato attori malevoli impegnati a sfruttare Gemini per scopi puramente criminali. Sono stati rilevati casi di campagne di phishing assistite dall’IA e persino malware programmati per chiamare le API di Gemini e generare codice dannoso in tempo reale.
In ogni istanza rilevata, l’azienda ha risposto disabilitando gli account coinvolti e aggiornando le barriere di sicurezza, in un continuo gioco di guardie e ladri che definisce l’attuale scenario della sicurezza informatica.
