Anthropic ha annunciato un importante cambio nella gestione dei dati degli utenti del suo chatbot Claude: a partire da subito, le conversazioni e le sessioni di coding dei clienti saranno utilizzate per l’addestramento dei modelli, salvo esplicita opposizione entro il 28 settembre. La nuova policy interessa tutti gli abbonamenti Free, Pro e Max, ma non i servizi enterprise, API o educational. I dati saranno conservati fino a cinque anni anziché i precedenti 30 giorni.
Il consenso viene richiesto tramite un pop-up all’accesso o alla registrazione, e ha sollevato diverse critiche a causa del design che ne favorisce l’accettazione. Il pulsante “Accetta” è prominente, mentre l’opzione di rifiuto appare in testo ridotto. Gli utenti possono modificare la scelta successivamente nelle impostazioni di privacy, ma la struttura dell’interfaccia rende più probabile un consenso implicito.
La decisione dell’azienda coincide inoltre con la pubblicazione di un report che documenta l’utilizzo criminale di Claude Code per estorsione e frodi, evidenziando i rischi concreti di uso illecito. Secondo gli osservatori, la svolta segna un abbandono della posizione “privacy-first” di Anthropic, allineandosi a pratiche più comuni tra le big tech, ed è stata giustificata dall’azienda come necessaria per migliorare capacità e sicurezza dei modelli AI.
Leggi l’articolo completo: Anthropic updates privacy policy, will train on Claude chats su Perplexity
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (04/03/2025).

