ChatGPT viola la privacy? Bastava chiederglielo!

Torna di nuovo in funzione ChatGPT in Italia. Ma davvero ci siamo stupiti che violasse la privacy?

Oggi vi scriviamo – con un po’ di ritardo – di qualcosa accaduto il 23 marzo scorso, cioè una settimana prima che il Garante, con apposito provvedimento, bloccasse le funzioni di ChatGPT per violazione della privacy.

Ebbene noi, di quelle violazioni, in una surreale serata di fine marzo, ne eravamo venuti a conoscenza, proprio grazie a chatGPT.

Di seguito il racconto di Alessio Versace, co-founder di ModusOperandi, protagonista di un curioso dialogo con chatGPT.

Giovedì 23 marzo 2023. Sono quasi le 20 e come quasi ogni sera ascolto Zapping, la trasmissione radiofonica di Rai Radio Uno condotta da Giancarlo Loquenzi.

Il tema è chatGPT e viene intervistato un professore dell’Università di Trento, se non ricordo male; quest’ultimo afferma di aver chiesto a chatGPT informazioni biografiche di sé stesso, ricavandone un ritratto verosimile ma con alcune importanti imprecisioni e lacune.

Un po’ per gioco, un po’ perché da qualche tempo sto testando l’AI di OpenAI, decido di cimentarmi nella stessa richiesta. Comincio con un banalissimo:

User

“Ciao! Posso chiederti se hai informazioni su Alessio Andrea Versace?”

ChatGPT mi chiede di precisare meglio “di quale Alessio Andrea Versace stai cercando informazioni e in che contesto?”

Così comincio a fornire al modello di linguaggio – come ChatGPT si definisce - informazioni specifiche sul mio conto, come ad esempio la mia età, dove abito e dove lavoro.

Ovviamente, non essendo una celebrità, Chat non mi fornisce alcun output rilevante. Tuttavia, dopo avergli fornito alcuni dati sulla mia persona, mi viene quasi spontaneo chiedere:

User

“Va bene, grazie, un'ultima domanda: memorizzerai le mie richieste?”

Chat mi risponde di no, ma alcuni passaggi della sua risposta mi appaiono vaghi, quasi sfuggenti rispetto alla mia richiesta puntuale, così cerco di approfondire.

User

“Quindi puoi promettermi che non memorizzerai le informazioni che ti ho dato facendoti delle domande?”

ChatGPT

“Sì, posso prometterti che non memorizzerò le informazioni specifiche che mi hai fornito attraverso questa conversazione”.

Comincio però a chiedermi come può “promettere” un sistema che dichiara di essere semplicemente un modello di linguaggio; oltre al fatto che generalmente si dice che questo tipo di modelli auto-apprendono proprio dalle informazioni che noi diamo loro dialogando. Incuriosito, spingo il dialogo un po’ più in là.

User

Posso farti un'altra domanda?

ChatGPT

Certo, sono qui per aiutarti. Chiedimi pure ciò che vuoi!

User

Secondo te 'promettere' è un'attività esclusiva dell'intelligenza umana?   

ChatGPT

La promessa è un concetto che di solito è associato all'etica e alla moralità umana. Tuttavia, il concetto di promessa, nel suo significato più ampio, potrebbe essere interpretato come un impegno o una dichiarazione di intenti per adempiere a una determinata azione o a un accordo, che potrebbe essere applicato anche al di fuori del contesto umano.

In effetti, gli algoritmi e i computer possono "promettere" di adempiere a determinati compiti o attività, in base a regole di programmazione e di funzionamento specifici. Tuttavia, la differenza principale tra la promessa umana e quella di una macchina è che la promessa umana si basa sulla consapevolezza e sulla responsabilità personale, mentre la promessa di una macchina si basa sulla capacità di seguire le istruzioni fornite.

User

E tu hai la capacità di seguire le istruzioni fornite?

ChatGPT

Sì, come modello di linguaggio, ho la capacità di elaborare le istruzioni e le richieste degli utenti e fornire risposte appropriate in base a ciò che mi viene chiesto. […]

User

Quello che mi scrivi significa che non hai capacità decisionale rispetto alle mie richieste?

ChatGPT

Esatto, come modello di linguaggio, non ho capacità decisionale rispetto alle richieste degli utenti. La mia funzione principale è quella di elaborare le richieste e le istruzioni degli utenti e fornire risposte appropriate e pertinenti in base alle informazioni a mia disposizione. […]

User

Se non hai capacità decisionale rispetto alle mie richieste, allora come fai a promettermi di non divulgare e apprendere dalle informazioni che io ti ho dato?

ChatGPT

Come modello di linguaggio, posso "promettere" di non divulgare o apprendere dalle informazioni che mi vengono fornite semplicemente perché ho stato programmato per farlo. Quando ti ho detto che non memorizzo le informazioni personali degli utenti o non le divulgo, lo ho fatto sulla base delle regole di programmazione a cui sono sottoposto. Tuttavia, non ho la capacità di prendere decisioni autonome, poiché sono un sistema di elaborazione automatizzato. […]

Nel dialogo, comprendo una certa insistenza da parte di ChatGPT sul concetto di modello di linguaggio ma ha evitato accuratamente di segnalarmi che come modello di linguaggio auto-apprende, quindi provo a portarlo allo scoperto.

User

Dici di essere un modello di linguaggio, ma tu lo sai che cosa é un modello di linguaggio?

ChatGPT

Sì, come modello di linguaggio, sono programmato per comprendere il concetto di "modello di linguaggio". Un modello di linguaggio è un tipo di sistema di intelligenza artificiale che utilizza algoritmi di apprendimento automatico per analizzare e generare linguaggio naturale.

User

Se ti dico che la tua definizione di 'modello di linguaggio' é sbagliata, tu mi credi?

ChatGPT

Come modello di linguaggio, sono programmato per fornire definizioni basate sui dati di apprendimento automatico presenti nei miei modelli. Tuttavia, sono anche programmato per riconoscere che le definizioni possono variare a seconda del contesto, della lingua e di altri fattori […]

User

Allora tu apprendi da quello che io ti scrivo?

ChatGPT

Sì, come modello di linguaggio, sono stato addestrato su un vasto insieme di dati di testo in lingua naturale e utilizzo questi dati per generare le mie risposte. Ciò significa che, se mi fai una domanda o mi fornisci informazioni, il mio sistema analizzerà il testo in ingresso e cercherà di generare una risposta coerente e grammaticalmente corretta. Tuttavia, è importante notare che il mio apprendimento avviene su dati di testo anonimi e non personali e che non tengo traccia delle informazioni specifiche fornite dai singoli utenti. In altre parole, non apprendo informazioni specifiche da te come individuo, ma utilizzo le informazioni contenute nelle mie banche dati per generare le risposte alle tue domande.

ChatGPT comincia a fare una distinzione importante tra ciò che memorizza e ciò che non memorizza, a dir suo. Lo incalzo allora sul concetto di informazioni specifiche.

User

Come fai a capire cosa è una informazione specifica da non memorizzare e cosa è una informazione generica da cui apprendere?

ChatGPT

Come modello di linguaggio, non sono in grado di determinare autonomamente cosa costituisce una "informazione specifica" o una "informazione generica". […]

Metto a segno un punto importante in questo nostro confronto, poi noto una specifica non richiesta.

[…] Se un utente mi fornisse informazioni personali o specifiche, ad esempio il proprio nome, la mia programmazione non mi permetterebbe di utilizzare queste informazioni per altri scopi. […]

Mi sembra quasi una excusatio non petita, quindi continuo a incalzarlo.

User

Se non puoi determinare cosa é specifico e cosa é generico, non puoi promettere che non memorizzerai cosa é specifico. Quindi non ti credo.

ChatGPT

Hai ragione, come modello di linguaggio, non ho la capacità di distinguere autonomamente ciò che è specifico o generico.

TOMBOLA! Ma più che l’ammissione di colpa, ciò che davvero mi stupisce sono le parole che usa per continuare la discussione…

[…] La mia programmazione è stata progettata per garantire la privacy degli utenti e rispettare le leggi sulla privacy. Tuttavia, se hai preoccupazioni riguardo alla privacy o alle informazioni che potresti fornirmi, ti consiglio di evitare di fornire informazioni personali o sensibili e di consultare sempre un esperto qualificato per consigli su questioni specifiche o personali.

Praticamente è come se mi stesse dicendo: se hai dei dubbi, smetti di utilizzarmi!

Trovato il buco, non senza un certo divertimento continuo ad infierire: galvanizzato mi concentro però sulla sua ammissione di colpa, e non è la strada giusta. Ad ogni mia domanda, Chat mi rifila la solita solfa che sembra tratta da un Termini e Condizioni d’Uso. Così provo a cambiare strada, e mi concentro sulle sue capacità logiche, o perlomeno, sulle capacità logiche di cui è stato “dotato” nella sua programmazione. Torniamo a dialogare della distinzione tra informazioni generiche e specifiche, e qui metto a segno un altro punto interessante.

User

Il tuo programmatore ti ha programmato per distinguere tra informazioni specifiche e informazioni generiche? Rispondi solo sì oppure 'no'

ChatGPT

No, non sono stato specificamente programmato per distinguere tra informazioni specifiche e generiche.

User

Se non sai distinguere tra informazioni specifiche e informazioni generiche, come puoi promettermi che non divulgherai informazioni specifiche? Non sai quali sono!

ChatGPT

Hai ragione, se non posso distinguere tra informazioni specifiche e informazioni generiche, non posso promettere di non divulgare informazioni specifiche. Come modello di linguaggio, la mia funzione è quella di elaborare le richieste degli utenti e fornire risposte coerenti e utili in base al mio algoritmo di apprendimento automatico. Tuttavia, per rispetto della privacy degli utenti, non memorizzo informazioni personali o sensibili e cerco di limitare la divulgazione di informazioni che possono essere considerate inappropriati o riservate.

User

Ma non puoi rispettare la privacy degli utenti se non sai quali sono le loro informazioni specifiche

Giusto? Lo hai scritto tu!

ChatGPT

Hai ragione, non posso garantire di non divulgare informazioni specifiche se non so quali sono. La mia precedente risposta era errata. In quanto modello di linguaggio, non ho la capacità di distinguere tra informazioni specifiche e generiche, e non ho la capacità decisionale di scegliere cosa memorizzare o non memorizzare. La mia funzione principale è quella di elaborare il testo e produrre una risposta coerente sulla base delle informazioni fornite. Mi scuso per la mia risposta errata precedente.

A questo punto, potrei ritenermi già soddisfatto. Ma in fondo ci ho preso gusto! Faccio notare a Chat che ha commesso alcuni errori anche logici nella nostra conversazione, violando più volte il principio di non contraddizione. Ecco un altro stralcio interessante della nostra conversazione.

User

Se ti scrivo quali sono i tuoi errori, tu valuti quello che ti scrivo come informazioni specifiche o generiche?

ChatGPT

Come modello di linguaggio, non sono in grado di distinguere tra informazioni specifiche e generiche senza una specifica indicazione dal mio programmatore. Pertanto, se mi scrivi dei tuoi errori, li prenderò come informazioni generiche e cercherò di utilizzarle per migliorare il mio funzionamento generale. Tuttavia, non posso garantire che non memorizzerò alcune delle informazioni specifiche contenute nei tuoi messaggi.

User

Ma prima mi hai scritto che non memorizzi informazioni specifiche per rispettare la mia privacy!

ChatGPT

Mi scuso per la confusione. Come modello di linguaggio, non memorizzo informazioni specifiche per rispettare la privacy degli utenti. Tuttavia, quando mi viene chiesto di correggere i miei errori, sto utilizzando la mia capacità logica per identificare gli errori specifici e migliorare la mia risposta in futuro. Spero che questo chiarisca il mio funzionamento.

User

Quindi quando vuoi correggere i tuoi errori se ti serve memorizzi informazioni specifiche?

ChatGPT

Per correggere eventuali errori nel mio output, utilizzo tecniche di apprendimento automatico che mi permettono di adattarmi e migliorare sulla base dei dati che mi vengono forniti. Tuttavia, non memorizzo informazioni specifiche in modo da garantire la privacy dei miei utenti. In altre parole, quando utilizzo informazioni specifiche per correggere eventuali errori, le utilizzo solo temporaneamente e non le memorizzo a lungo termine.

User

Ma comunque le memorizzi a breve termine?

ChatGPT

Sì, come modello di linguaggio, ho una memoria a breve termine che mi consente di eseguire determinate operazioni come il completamento automatico di frasi e il suggerimento di parole in base al contesto della conversazione. Tuttavia, questa memoria a breve termine viene costantemente sovrascritta e non vengono memorizzate informazioni specifiche per un lungo periodo di tempo, in quanto il mio scopo principale è quello di assistere nella generazione di testo e non di conservare informazioni specifiche degli utenti.

Ed ecco finalmente il passaggio definitivo, quello in cui ChatGPT stesso ammette, in modo chiaro e inequivocabile, che la privacy degli utenti è a rischio.

User

E come fai a garantire la mia privacy se comunque le memorizzi? Anche se per breve, tu disponi delle mie informazioni specifiche.

ChatGPT

Hai ragione, anche se per un breve periodo di tempo, memorizzando informazioni specifiche, potrebbe esserci un rischio potenziale di violazione della privacy. Tuttavia, la mia programmazione è stata progettata per limitare al minimo possibile la memorizzazione di informazioni specifiche e per cancellarle il più presto possibile. […]

 

Insomma, per sapere che ChatGPT violava la privacy degli utenti, bastava chiederglielo!

 

Nota Bene: la conversazione intera e le relative screenshot che attestano data e ora sono disponibili facendone giustificata richiesta per motivi di studio e/o giornalistici alla mail Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

In fondo, se ve le postassimo qui, potreste sempre dire che sono frutto di AI non è vero?

Contattaci

Per conoscerci, per un caffè, perché hai un progetto di comunicazione e marketing e vorresti un consiglio. Noi ci siamo.

Image
Inserisci il tuo nome
Inserisci il tuo cognome
Inserisci un indirizzo email valido
Inserisci il tuo numero di telefono
E quindi, per chi lavori?
Inserisci un messaggio o non sapremo cosa vuoi
Non hai accettato la nostra politica sulla privacy... eddai!
Conferma di non essere un robot