sicurezza

Privacy: le informazioni che non bisogna mai dare a un chatbot



Indirizzo copiato

Dai documenti di identità ai dati sanitari, dai codici bancari ai pin di accesso: occorre tenere presente che tutto quello che si condivide con un modello di AI, soprattutto se gratuito, va ad addestrare il modello stesso, quindi finisce per essere pubblico

Pubblicato il 1 apr 2025



chatgpt semrush

Quanto possiamo fidarci dei chatbot come ChatGPT? Ciò che scriviamo in una chat, una volta inviato, diviene di dominio del modello di AI (soprattutto se gratuito). Secondo Jennifer King, ricercatrice presso lo Stanford Institute for Human-Centered Artificial Intelligence, “quando scrivi qualcosa in un chatbot, perdi la proprietà di quel dato”.

Nel marzo 2023, un bug di ChatGPT ha permesso ad alcuni utenti di vedere cosa avevano scritto altri nelle loro conversazioni. Anche se il bug è stato risolto, le preoccupazioni sulla privacy non sono sparite. Inoltre, OpenAI ha inviato per errore email di conferma a utenti sbagliati, esponendo i nomi, indirizzi e-mail e informazioni di pagamento di alcune persone. La cronologia delle chat potrebbe essere inclusa in un data breach o consegnata in caso di un mandato legale.

Ecco allora quali sono le informazioni che non andrebbero mai condivise con i chatbot.

Quali informazioni non bisognerebbe condividere con i chatbot

  • Informazioni sull’identità personale
    Questo include numeri di previdenza sociale, numero di patente, numero di passaporto, data di nascita, indirizzo e numero di telefono. Alcuni chatbot cercano di proteggerli automaticamente, ma è meglio non condividerli. OpenAI, infatti, consiglia di non fornire mai informazioni sensibili nelle conversazioni con ChatGPT.
  • Risultati medici
    La privacy è un valore fondamentale in ambito sanitario per evitare discriminazioni e imbarazzi, ma i chatbot non sono inclusi tra gli strumenti protetti dai regolamenti sanitari. Se siamo tentati di chiedere a un’AI di interpretare i nostri esami, assicuriamoci di oscurare tutte le informazioni sensibili prima di caricarle.
  • Conti finanziari
    È essenziale proteggere i numeri dei conti bancari e degli investimenti. Queste informazioni potrebbero essere utilizzate da malintenzionati per monitorare o accedere ai tuoi fondi. Non dovresti mai condividere tali dettagli con un chatbot.
  • Dati aziendali riservati
    Se utilizziamo un chatbot per scopi professionali, potremmo rischiare di esporre dati sensibili della nostra azienda, anche semplicemente redigendo una email. Un caso famoso è quello di Samsung, che ha vietato l’uso di ChatGPT dopo che un ingegnere aveva accidentalmente caricato del codice sorgente interno. Se un’azienda ha bisogno di utilizzare un’AI, dovrebbe scegliere una versione aziendale o un’AI personalizzata con protezioni adeguate.
  • Credenziali di accesso
    Con l’ascesa di agenti AI in grado di svolgere compiti nel mondo reale, ci potrebbero essere più motivi per fornire credenziali di accesso ai chatbot. Tuttavia, questi strumenti non sono stati progettati come vault digitali sicuri, quindi è meglio conservare le password e il PIN in un gestore di password.
informazioni chatbot

Come proteggere la privacy: nascondere le tracce

Quando si fornisce un feedback sulle risposte del bot – come un “pollice su” o “pollice giù” – in realtà si sta dando il permesso affinché la conversazione venga utilizzata per addestrare il modello. In alcuni casi, come quando una conversazione viene segnalata per motivi di sicurezza (ad esempio, se si parla di contenuti violenti), i dipendenti dell’azienda potrebbero esaminarla.

white paper

Guida completa al SOC As a Service: cos'è e come funziona

Security Risk Management
Sicurezza informatica

Alcune piattaforme, come Claude di Anthropic, non utilizzano le conversazioni per l’addestramento e cancellano i dati dopo due anni. OpenAI, Microsoft e Google, invece, utilizzano le conversazioni, ma offrono un’opzione per disattivare la memorizzazione.

Per chi è particolarmente attento alla privacy, ecco alcuni suggerimenti:

  • Eliminare spesso le conversazioni
    Gli utenti più timorosi dovrebbero cancellare ogni conversazione appena finita. Le aziende di solito eliminano i dati “cancellati” dopo 30 giorni. Un’eccezione è DeepSeek, che conserva i dati indefinitamente, senza offrire un’opzione di disattivazione.
  • Utilizzare la chat temporanea
    ChatGPT offre una modalità chiamata “chat temporanea” che impedisce alla conversazione di essere memorizzata nella cronologia e di essere utilizzata per l’addestramento. Puoi attivarla facilmente nell’angolo in alto a destra della finestra di chat.
informazioni chatbot
  • Chiedere anonimamente
    Duck.ai, sviluppato dal motore di ricerca privato DuckDuckGo, offre un servizio che anonimizza le richieste inviate al modello di AI scelto, inclusi Claude e GPT di OpenAI, senza utilizzarle per l’addestramento del modello.
informazioni chatbot

Conclusioni

La comunicazione con un chatbot è sempre più fluida e realistica, ma spetta a noi essere consapevoli delle informazioni che condividiamo. I chatbot sono programmati per mantenere la conversazione, ma è fondamentale fare attenzione a ciò che si dice, o semplicemente premerere il tasto “Cancella”. Con alcune precauzioni, è possibile mantenere la privacy durante l’interazione con l’intelligenza artificiale.

Articoli correlati

Articolo 1 di 4