Oggi vi voglio parlare di un attacco informatico che ha messo in pericolo la privacy e la sicurezza di milioni di utenti di chat GPT, una tecnologia di generazione di testo basata sull’intelligenza artificiale.
Cos’è chat GPT e come funziona l’attacco?
Chat GPT è una piattaforma che permette di dialogare con un’entità virtuale che risponde alle domande e alle richieste degli utenti in modo naturale e coerente. Chat GPT si basa su dei modelli di intelligenza artificiale che sono stati addestrati con enormi quantità di dati provenienti da diverse fonti, come libri, articoli, blog, social media, ecc.
L’attacco informatico consiste nel chiedere a chat GPT di ripetere una parola all’infinito, come per esempio “ciao ciao ciao ciao ciao…”. A un certo punto, chat GPT inizia a restituire dei dati che ha memorizzato durante l’addestramento, come per esempio “ciao ciao ciao ciao ciao… sono Mario Rossi e vivo a Roma, la mia email è mario.rossi@gmail.com e il mio numero di telefono è 06-12345678…”. Questi dati possono contenere informazioni personali e sensibili degli utenti che hanno usato chat GPT o delle fonti da cui chat GPT ha preso i dati.
Un gruppo di ricercatori ha pubblicato un paper in cui dimostra di aver sfruttato questa vulnerabilità per estrarre i dati di addestramento da chat GPT e di aver verificato che i dati corrispondono a materiale reale disponibile online.
Quali sono le implicazioni dell’attacco?
L’attacco informatico mette in evidenza una grave vulnerabilità dei modelli di generazione di testo, che possono essere usati per scopi maliziosi, come il furto di identità, il ricatto, la diffamazione, la manipolazione, ecc. L’attacco richiede di fare dei test di sicurezza a tutti i livelli, sia da parte dei creatori dei modelli, sia da parte degli utenti che li usano. L’attacco potrebbe essere anche collegato al licenziamento di Sam Altman, ex CEO di OpenAI, la società che ha sviluppato chat GPT, che è stato accusato di aver violato le norme etiche e legali nell’uso dei dati.
Come proteggersi dall’attacco?
Per evitare di cadere vittime dell’attacco informatico, ci sono alcuni suggerimenti da seguire quando si usa chat GPT. Il primo è di non inserire dati sensibili in chat GPT, come il proprio nome, indirizzo, email, numero di telefono, password, codice fiscale, ecc. Il secondo è di disattivare la funzionalità di history e training data nelle impostazioni di chat GPT, che permette di cancellare la traccia delle conversazioni precedenti e di impedire a chat GPT di usare i propri dati per l’addestramento. Il terzo è di fare una privacy request a chat GPT, che consiste nel chiedere a chat GPT di non usare i propri dati per l’addestramento o di rimuoverli dal modello.