L’uso dell’intelligenza artificiale generativa da parte di gruppi criminali e attori statali è un tema che solleva interrogativi concreti. Se da un lato l’AI sta accelerando alcuni aspetti delle attività offensive, dall’altro non ha ancora introdotto un cambio di paradigma per gli attaccanti. Un’indagine del Google Threat Intelligence Group (GTIG) ha analizzato il ruolo di modelli come Gemini nel cybercrimine e nelle operazioni di disinformazione, rivelando che, sebbene utili per velocizzare attacchi informatici e campagne propagandistiche, non hanno ancora rivoluzionato il settore.
AI Generativa e gruppi di cyber-criminali statali: strumenti e obiettivi
Il report evidenzia come alcuni governi, tra cui Iran, Cina, Corea del Nord e Russia, abbiano sperimentato l’uso di Gemini per attività di spionaggio, sviluppo di malware e propaganda online. I gruppi iraniani risultano particolarmente attivi, sfruttando il modello per analizzare vulnerabilità di sicurezza, generare contenuti per campagne di phishing e raccogliere informazioni su infrastrutture critiche. Hacker cinesi e nordcoreani, invece, si concentrano su ricognizione, creazione di script dannosi e sviluppo di strumenti offensivi, mentre i gruppi russi sembrano meno coinvolti, forse per considerazioni sulla sicurezza operativa o per una preferenza verso soluzioni di AI interne.
Anche chi opera nella disinformazione segue dinamiche simili: Gemini è stato impiegato per produrre contenuti propagandistici, tradurre e localizzare messaggi in diverse lingue e affinare strategie di diffusione sui social media. Il vantaggio risiede soprattutto nella rapidità con cui l’AI permette di creare testi, accelerando il ciclo di pubblicazione e amplificando la diffusione di narrazioni manipolative.
L’AI rende gli attacchi più accessibili e veloci da realizzare
Il dato chiave emerso dall’analisi di Google è che l’AI generativa, almeno per ora, non ha introdotto tattiche di attacco radicalmente nuove. L’impatto maggiore si riscontra nella velocizzazione di attività già consolidate. I criminali informatici utilizzano modelli come Gemini per scrivere codice, adattare exploit noti a nuovi contesti, migliorare la qualità delle email di phishing e affinare tecniche di ingegneria sociale.
Per gli attaccanti più esperti, l’AI si rivela un supporto utile per rendere le operazioni più efficienti, senza però sostituire competenze specifiche o introdurre strumenti inediti. Per chi ha meno esperienza, invece, rappresenta un accesso facilitato a conoscenze tecniche, abbassando la barriera d’ingresso nel cybercrimine. Non si tratta quindi di un cambiamento epocale nelle strategie offensive, ma di una crescente accessibilità a strumenti avanzati.
Le difese di Google resistono, ma il dilemma resta
Il report sottolinea che i sistemi di sicurezza implementati in Gemini sono riusciti a contenere gran parte dei tentativi di utilizzo malevolo. Le tecniche di jailbreak e prompt injection adottate dagli attaccanti non hanno portato a risultati rilevanti: il modello si è rifiutato di generare codice dannoso o fornire informazioni sensibili. Questo suggerisce che, almeno per ora, i meccanismi di protezione funzionano, limitando l’uso diretto dell’AI per scopi offensivi.
Tuttavia, resta aperta una questione più ampia: è possibile rendere un modello di AI generativa completamente sicuro? Sebbene Gemini abbia bloccato richieste esplicitamente malevole, continua a offrire supporto in ambiti collaterali, come l’ottimizzazione di contenuti o il miglioramento di script esistenti. Il vero rischio potrebbe non essere l’uso immediato per attacchi sofisticati, ma il ruolo dell’AI nell’efficienza complessiva delle operazioni criminali.
Il futuro: AI senza vincoli?
Oggi i cybercriminali trovano ancora alcuni limiti nell’uso di AI generative come Gemini, ma la situazione potrebbe cambiare. La tendenza sembra muoversi verso lo sviluppo di modelli privi di filtri di sicurezza, progettati appositamente per scopi illeciti. Alcuni esempi esistono già: strumenti come FraudGPT e WormGPT, venduti nel dark web, dimostrano un crescente interesse per LLM ottimizzati per il cybercrimine.
La vera sfida per l’industria non sarà solo rendere sicuri i modelli commerciali, ma anche arginare la diffusione di AI personalizzate, sviluppate senza controlli. Se non verranno definiti standard di sicurezza solidi e condivisi, il rischio è che l’utilizzo di questi strumenti diventi sistematico, complicando ulteriormente il contrasto alle minacce informatiche.
L’AI nel cybercrimine: risorsa marginale o minaccia in evoluzione?
Il report di Google suggerisce che, nel breve termine, l’intelligenza artificiale generativa non sconvolgerà il panorama delle minacce informatiche. Gli strumenti esistono e vengono utilizzati, ma non hanno ancora trasformato le strategie criminali in modo radicale. Il vero nodo è ciò che potrebbe avvenire in futuro: ignorare la possibilità che emergano modelli senza restrizioni significherebbe sottovalutare un problema con il potenziale di espandersi rapidamente.
L’industria della sicurezza informatica ha quindi la responsabilità di muoversi con lungimiranza, rafforzando le regolamentazioni, sviluppando nuove capacità di rilevamento delle minacce basate sull’AI e collaborando con le istituzioni per prevenire scenari critici. Se oggi l’AI generativa non ha ancora rivoluzionato il cybercrimine, sottovalutarne l’evoluzione potrebbe essere un errore costoso.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link