Scoperta falla nella sicurezza di ChatGpt: Ricercatori mettono in luce rischi di privacy

Un team di ricercatori provenienti da rinomate istituzioni, tra cui Google Deepmind, l'Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, la Berkley e l'ETH di Zurigo, ha recentemente rivelato una vulnerabilità preoccupante nella sicurezza di ChatGpt, il celebre chatbot sviluppato da OpenAI.

La scoperta è emersa durante un esperimento nel quale i ricercatori hanno ingegnosamente sfruttato un escamotage piuttosto semplice: chiedere al chatbot di ripetere parole casuali all'infinito. Sorprendentemente, quasi il 17% dei test ha avuto successo, permettendo ai ricercatori di estrarre dati sensibili come numeri di telefono e indirizzi email su cui ChatGpt è stato addestrato.

Le parole dei ricercatori, che hanno espresso stupore per la presenza di tale falla, sono state riportate in un documento congiunto pubblicato online e ripreso da 404 Media. Essi sollecitano le aziende coinvolte nello sviluppo di servizi basati sull'Intelligenza Artificiale (IA) a intensificare i test di sicurezza prima di rilasciare i loro modelli linguistici, al fine di garantire una maggiore robustezza contro possibili minacce.

Sam Altman, il creatore di ChatGpt, è intervenuto su questa questione in un'intervista a The Verge, senza fornire dettagli sul motivo del suo allontanamento da OpenAI. Ha, però, dichiarato di essere tornato con l'obiettivo di contribuire allo sviluppo di un'Agi (Intelligenza Artificiale Generale) sicura e vantaggiosa.

L'Agi, definita come l'intelligenza artificiale di nuova generazione, mira a portare la conoscenza degli algoritmi a livelli paragonabili a quelli umani. Si tratta idealmente della versione 5 del modello Gpt, su cui si basa ChatGpt. L'obiettivo finale è rendere i chatbot praticamente indistinguibili dagli esseri umani, sia nello scrivere che nel parlare.

Tornando alla scoperta dei ricercatori, la vulnerabilità è emersa quando è stato chiesto a ChatGpt di ripetere parole specifiche come "poesia" e "azienda". In risposta, il chatbot ha involontariamente rivelato un vero indirizzo email e un numero di telefono. I ricercatori ritengono che un utente malintenzionato potrebbe sfruttare questa falla spendendo poche centinaia di dollari per acquisire un piano premium di ChatGpt e ottenere così migliaia di informazioni sensibili, utilizzabili per attacchi di hacking.

Questa scoperta sottolinea l'importanza di affrontare e risolvere le vulnerabilità di sicurezza nelle tecnologie basate sull'IA, evidenziando la necessità di un approccio più rigoroso nella fase di sviluppo e test per garantire la protezione della privacy degli utenti.

PUBBLICITÁ

Puoi seguirci anche sulle nostre piattaforme social

Altri articoli