Cybersecurity e IA: rischi e minacce secondo il report OpenAI 2025

Ascolta l'articolo
8:41

 

L’intelligenza artificiale (IA) è una delle tecnologie più dirompenti della nostra epoca. Dalla medicina all’industria, dall’automazione al mondo della cybersecurity, l’IA promette di risolvere problemi complessi e di aumentare la produttività. Tuttavia, ogni tecnologia potente porta con sé anche rischi significativi.

Il report di OpenAI “Disrupting Malicious Uses of AI: June 2025”, pubblicato a giugno 2025, rappresenta un campanello d’allarme per governi, aziende e società civile. Firmato da esperti come Ben Nimmo, Albert Zhang, Sophia Farquhar, Max Murphy e Kimo Bumanglag, il documento analizza come gli attori malevoli stiano sfruttando i modelli di IA – incluso ChatGPT – per attività criminali e geopolitiche.

Il report mette in luce due facce della medaglia: da un lato l’IA come strumento difensivo, “moltiplicatore di forza” per i team di investigazione; dall’altro l’IA come risorsa per minacce cibernetiche, operazioni di influenza, truffe e sfruttamento illegale.

In questo articolo fornirò un resoconto dettagliato del report semplificando il più possibile per permetterne una comprensione ad un pubblico globale. Esploreremo i casi studio, le tattiche degli attori malevoli e le lezioni apprese, contestualizzando tutto nel panorama geopolitico attuale.

 

La missione: un’IA “democratica”

Il sommario esecutivo del report ribadisce un concetto chiave: l’IA deve essere uno strumento a beneficio di tutti, non un’arma nelle mani di regimi autoritari o gruppi criminali. Questo significa prevenire l’uso di strumenti IA da parte di regimi autoritari per consolidare il potere interno o minacciare altri stati. 

Si evidenzia come l’uso malevolo dell’IA si stia diffondendo in diversi ambiti:

  • Operazioni di influenza coperta (IO)

  • Truffe e frodi online

  • Spam e phishing avanzato

  • Sfruttamento minorile

  • Attività cibernetiche offensive

Negli ultimi mesi, sono state rilevate e interrotte campagne che spaziavano dall’ingegneria sociale allo spionaggio informatico, passando per manipolazioni politiche e schemi fraudolenti. Una parte significativa delle operazioni proveniva dalla Cina, ma sono state individuate anche attività da Russia, Iran, Cambogia e Filippine.

Un aspetto chiave è l’evoluzione delle indagini sull’IA: ogni operazione interrotta fornisce insight per raffinare le difese. OpenAI accoglie i report simili da Google e Anthropic, sottolineando che la collaborazione è essenziale in un ecosistema frammentato. Questo approccio collaborativo non solo mitiga rischi, ma promuove una sicurezza condivisa, trasformando l’IA da potenziale vettore di minacce a scudo protettivo.

Immaginiamo un mondo in cui l’IA aiuta a smascherare fake news o truffe online: è esattamente ciò che si sta realizzando, integrando l’IA nelle indagini umane. Questo sommario pone le basi per i casi studio, che illustrano la diversità delle minacce e la resilienza delle risposte.

 

Case study: quando l’IA diventa un’arma

Il cuore del report è rappresentato dai casi studio, che mostrano come attori statali e criminali utilizzino l’IA per potenziare le loro campagne. Alcuni esempi:

Schema di impiego ingannatorio (Corea del Nord)

Attori legati alla DPRK hanno sfruttato l’IA per generare curriculum falsi e superare verifiche di identità con lo scopo di ottenere lavori remoti nel settore IT. L’obiettivo: infiltrarsi in aziende sensibili e accedere a dati critici.

Operazione “Sneer Review” (Cina)

Campagne di disinformazione su TikTok, Reddit e Facebook, con post generati dall’IA su temi geopolitici e attacchi a figure pubbliche. Impatto limitato, ma dimostrazione della capacità dell’IA di produrre propaganda scalabile.

Operazione “High Five” (Filippine)

Una rete di account pro-Marcos utilizzava ChatGPT per commenti politici, con l’obiettivo di influenzare il dibattito interno.

Operazione “Helgoland Bite” (Russia)

Contenuti mirati alle elezioni tedesche del 2025, diffusi su Telegram e X, a sostegno di posizioni filorusse e anti-NATO.

Operazione cibernetica “ScopeCreep” (Russia)

Sviluppo di malware in Go con il supporto di ChatGPT, per il furto di credenziali e l’accesso non autorizzato a sistemi sensibili.

Operazioni “Vixen” e “Keyhole Panda” (Cina)

Uso dell’IA per il reconnaissance e lo scripting in campagne di cyber spionaggio legate alla difesa statunitense.

Operazione “Uncle Spam” (Cina)

Campagna di manipolazione sul tema delle tariffe USA, con account falsi e immagini generate dall’IA.

Attività di influenza STORM-2035 (Iran)

Tweet in spagnolo e inglese per polarizzare il dibattito politico USA e europeo.

Operazione “Wrong Number” (Cambogia)

Task scam su larga scala: messaggi che promettono guadagni facili, per poi estorcere denaro.

 

Lezioni apprese e implicazioni geopolitiche

Il report mette in luce come l’intelligenza artificiale sia ormai un elemento centrale sia nelle strategie di cyber warfare sia nella criminalità digitale. Gli esempi raccolti mostrano che l’IA amplifica allo stesso tempo capacità offensive e difensive: da un lato potenzia le campagne di disinformazione e manipolazione, dall’altro rende più efficaci gli strumenti per smascherarle.

Tra i principali punti emersi:

  • Dominanza della Cina: circa quattro casi su dieci provengono da attori cinesi, ma le operazioni hanno origine da un panorama globale che coinvolge anche Russia e Iran.

  • Implicazioni geopolitiche: la propaganda cinese riguarda Taiwan e Pakistan, quella russa le elezioni, mentre quella iraniana punta a accentuare divisioni interne in altri Paesi.

  • Rischio elettorale: molte campagne cercano di manipolare opinioni pubbliche in vista di appuntamenti politici cruciali.

  • Collaborazione essenziale: aziende e governi devono lavorare insieme; report analoghi di Google e Anthropic confermano la necessità di un ecosistema di difesa condiviso.

  • IA come difesa: analizza grandi quantità di dati e rileva schemi nascosti, ma il ruolo umano rimane insostituibile.

  • Bilanciamento innovazione-eticità: con l’AGI all’orizzonte, diventa cruciale trovare un equilibrio tra sviluppo tecnologico e responsabilità etica.

In questo contesto, report come questi hanno la funzione di educare, sensibilizzare e promuovere trasparenza, contribuendo a una maggiore consapevolezza collettiva sulle sfide e opportunità dell’IA nella cybersecurity globale.

 

 

Perché accade: le radici del problema

A nostro parere, ci sono almeno tre fattori che spiegano l’accelerazione degli abusi dell’IA:

  1. Maturità tecnica dei modelli: le architetture di ragionamento “Chain of Thought” (CoT) hanno raggiunto un livello sufficiente per pianificare scenari complessi e adattarsi in autonomia.

  2. Protocolli di orchestrazione (MCP): introdotti nel 2024, permettono agli LLM di interagire con strumenti esterni senza bisogno di riaddestramento, aumentando la flessibilità.

  3. Accessibilità delle tecnologie: modelli open-source, costi di calcolo ridotti e toolchain più mature abbassano le barriere d’ingresso anche per attori malevoli.

I grandi player internazionali (OpenAI, Anthropic, Meta, Google) stanno già introducendo contromisure pubbliche.

Tuttavia, i threat actor possono aggirarle utilizzando stack locali, esattamente come possono fare le aziende che hanno sviluppato un proprio LLM.

 

Verso un’IA sicura e inclusiva

Il report è più di un documento tecnico: è un invito all’azione. Mostra come l’IA possa essere al tempo stesso minaccia e difesa, e come la differenza dipenda dall’uso che ne facciamo.

Per costruire un futuro digitale sicuro, serve:

  • Vigilanza costante contro nuove forme di abuso.

  • Collaborazione internazionale tra governi, aziende e società civile.

  • Sviluppo responsabile dell’IA, con regole etiche chiare e strumenti di difesa basati sulle stesse tecnologie.

In un mondo in cui le minacce evolvono rapidamente, la cybersecurity deve rispondere con la stessa velocità. Questo è uno degli impegni costanti del processo di Ricerca e sviluppo di Cyberoo nell’erogazione della Cyber Security Suite, soluzione di Managed Detection and Response (MDR) che fa dell’utilizzo dell’IA un elemento in costante sviluppo. Il servizio consente di anticipare, rilevare e neutralizzare attacchi cibernetici, sfruttando la stessa sofisticazione dell’IA impiegata dai threat actor.

L’IA è uno specchio delle nostre intenzioni. Sta a noi decidere se usarla come scudo o come arma.

Di Luca Bonora - CYBEROO Evangelist

 

Nuova call-to-action

Back to Blog