L’intelligenza artificiale è ormai parte integrante della nostra quotidianità, non solo come strumento esterno — come ChatGPT — ma anche come tecnologia integrata nei servizi che usiamo ogni giorno: da Google a WhatsApp, fino a Gmail. Proprio l’assistente intelligente di Gmail, basato sul modello Gemini di Google, è finito sotto la lente del team di ricerca 0din di Mozilla, che ha scoperto una vulnerabilità preoccupante capace di trasformare una semplice email in una potenziale minaccia.
La vulnerabilità nascosta nelle email
Secondo l’analisi, il sistema di riepilogo automatico delle email di Gmail può essere manipolato attraverso una tecnica nota come prompt injection. In pratica, un malintenzionato può inserire comandi nascosti nel corpo di un messaggio, sfruttando elementi grafici o testuali impercettibili a occhio nudo.
Quando l’intelligenza artificiale analizza la mail per generare il riepilogo, interpreta anche queste istruzioni “nascoste”, seguendole come fossero parte del contenuto reale. Il risultato è che il riepilogo generato può diventare falsato o addirittura fraudolento, mostrando messaggi ingannevoli, link malevoli o avvisi di sicurezza fittizi.
Come si manifesta l’attacco
Il rischio non è teorico. Gli esperti hanno dimostrato che, in determinati casi, il riepilogo AI di Gmail può includere messaggi inventati, come finti avvisi di violazione dell’account, numeri di assistenza falsi o link a siti truffaldini. Un utente che si fida ciecamente dell’AI potrebbe quindi cliccare su contenuti pericolosi o fornire dati sensibili, convinto che l’informazione provenga direttamente da Google.
L’attacco, almeno per ora, richiede ancora un’interazione da parte dell’utente, ma è sufficiente un errore di distrazione per cadere nella trappola. Il problema è che i riepiloghi AI vengono percepiti come affidabili per definizione, e proprio questa fiducia rappresenta la vera debolezza del sistema.
Non solo Gmail: rischio esteso ad altri prodotti Google
Il team Mozilla ha avvertito che la falla non riguarda soltanto Gmail. Tutte le applicazioni che utilizzano il modello Gemini, come Google Docs, Slides o persino i sistemi di ricerca interna aziendale, potrebbero essere esposte allo stesso tipo di vulnerabilità.
Un documento condiviso, una presentazione o una nota automatica potrebbero contenere prompt nascosti che modificano la risposta o il riepilogo generato dall’intelligenza artificiale, trasformando strumenti di produttività in veicoli inconsapevoli di manipolazione digitale.
La risposta di Google
Dopo la pubblicazione del report, Google ha confermato di essere al lavoro per introdurre nuove misure di sicurezza multilivello, mirate a filtrare i comandi anomali e a rendere più trasparente il funzionamento dei sistemi AI integrati. Tuttavia, l’azienda non ha fornito date precise né dettagli tecnici sugli interventi previsti.
Secondo gli esperti di sicurezza informatica, la mancanza di tempistiche e la complessità del problema fanno pensare che la vulnerabilità non sia di facile risoluzione, soprattutto perché riguarda il comportamento “cognitivo” del modello linguistico, ossia il modo in cui l’AI interpreta il testo.
Un rischio sottovalutato
La scoperta solleva una riflessione più ampia: la corsa all’integrazione dell’intelligenza artificiale in ogni piattaforma digitale sta procedendo più velocemente della capacità di proteggerla. I sistemi basati su modelli linguistici sono potenti e intuitivi, ma anche estremamente sensibili a manipolazioni sottili e difficili da individuare.
Gli attacchi come la prompt injection sono un esempio concreto di come le nuove truffe digitali si stiano evolvendo: invisibili, automatizzate e capaci di sfruttare la fiducia degli utenti nei sistemi intelligenti.
Come proteggersi
Per ridurre i rischi, gli esperti consigliano di:
-
non fidarsi ciecamente dei riepiloghi generati dall’AI;
-
aprire sempre le email sospette direttamente, verificando il mittente reale e i link contenuti;
-
evitare di cliccare su numeri o link proposti nel riepilogo automatico;
-
segnalare a Google eventuali anomalie o comportamenti insoliti del sistema.
L’AI e la fiducia digitale
L’episodio mette in evidenza un punto cruciale: l’intelligenza artificiale può semplificare la vita, ma senza controlli e consapevolezza rischia di diventare un’arma nelle mani sbagliate. Gmail e i servizi collegati al modello Gemini rappresentano un campanello d’allarme che riguarda tutti: la sicurezza non è più solo una questione di password o antivirus, ma anche di come l’AI interpreta e agisce sui nostri dati.
In un mondo in cui la fiducia nei sistemi automatizzati cresce di giorno in giorno, imparare a leggere anche tra le righe — o meglio, tra i prompt — diventa la prima vera difesa contro le nuove forme di cyber-inganno.