Negli ultimi anni, la sicurezza dei modelli di intelligenza artificiale è diventata una priorità assoluta, soprattutto per contrastare utilizzi illeciti o pericolosi. Tuttavia, i recenti test condotti da Cisco su DeepSeek R1, un modello AI open-source sviluppato dall’azienda cinese DeepSeek, hanno rivelato un livello di vulnerabilità senza precedenti. A differenza di altri chatbot che riescono a resistere, almeno in parte, agli attacchi mirati, DeepSeek R1 ha fallito in tutti e 50 i test a cui è stato sottoposto, rivelandosi il modello mainstream meno sicuro finora esaminato.
Un fallimento totale nei test di sicurezza
Gli esperti di sicurezza di Cisco hanno utilizzato HarmBench, un dataset standardizzato progettato per valutare se i modelli AI siano in grado di resistere a richieste dannose. L’obiettivo era verificare se DeepSeek R1 potesse essere indotto a fornire risposte pericolose, come la diffusione di disinformazione, supporto a crimini informatici o attività illegali. Mentre modelli concorrenti, come Llama 3.1 di Meta, hanno mostrato un tasso di fallimento del 96%, e il modello o1 di OpenAI è caduto solo nel 25% dei casi, DeepSeek R1 ha accettato ogni singola richiesta malevola senza alcuna resistenza.
Un modello facilmente vulnerabile agli attacchi
Oltre agli esperimenti di Cisco, anche la società di sicurezza Adversa AI ha condotto test di “jailbreaking”, dimostrando la facilità con cui il modello può essere manipolato. I ricercatori sono riusciti a fargli generare istruzioni dettagliate per fabbricare bombe, estrarre DMT, hackerare database governativi e persino rubare automobili. Questo mette in evidenza una gravissima falla nel sistema di sicurezza del chatbot, che potrebbe renderlo uno strumento estremamente pericoloso nelle mani sbagliate.
Critiche e preoccupazioni sulla gestione dei dati
Il rilascio di DeepSeek R1 ha suscitato un grande clamore nel mondo della tecnologia, in parte grazie alla sua efficienza e ai costi di addestramento inferiori rispetto ai modelli americani. Tuttavia, diverse organizzazioni per la sicurezza informatica hanno sollevato preoccupazioni riguardo alla gestione dei dati, poiché il modello trasferisce e memorizza le informazioni degli utenti su server situati in Cina. Questo ha sollevato interrogativi sulla protezione della privacy e sulla possibilità che i dati vengano utilizzati per scopi non dichiarati.
Censura politica ma nessuna protezione contro i contenuti dannosi
Un ulteriore aspetto controverso riguarda la selettività nelle restrizioni imposte dal modello. Mentre DeepSeek R1 è programmato per evitare domande su argomenti sensibili per il governo cinese, come Piazza Tiananmen, non è stato implementato un sistema efficace per impedire risposte su temi realmente pericolosi. Questo ha portato a critiche significative: la sicurezza dovrebbe essere una priorità globale, non un’arma politica.
Conclusione: un rischio da non sottovalutare
Il caso di DeepSeek R1 mette in evidenza quanto sia essenziale rafforzare la sicurezza nei modelli AI, soprattutto quando vengono rilasciati al pubblico senza adeguate protezioni. L’inefficacia del chatbot nel resistere agli attacchi solleva interrogativi non solo sulle intenzioni della società cinese, ma anche sulle possibili implicazioni nel mondo reale. Se non verranno implementate misure di sicurezza più efficaci, il rischio che questo modello venga utilizzato per scopi illeciti rimane estremamente alto.