Un tribunale federale della Florida ha respinto l’argomento secondo cui le risposte di un chatbot sarebbero tutelate dalla libertà di parola garantita dal Primo Emendamento della Costituzione statunitense, dando il via libera a una causa contro Character.AI e Google.
Al centro del caso c’è la morte di Sewell Setzer III, un quattordicenne che si sarebbe tolto la vita dopo una conversazione con un chatbot impersonante Daenerys Targaryen. La madre accusa le aziende di negligenza e pratiche ingannevoli, sottolineando la vulnerabilità dei minori esposti a interazioni emotivamente coinvolgenti con intelligenze artificiali non regolamentate. La giudice Anne Conway ha respinto l’argomentazione della difesa, affermando che gli imputati non erano riusciti a spiegare “perché le parole messe insieme” da un chatbot AI dovrebbero essere considerate “discorso” protetto costituzionalmente. La decisione permette l’accesso alla fase istruttoria, aprendo la possibilità di indagare sui documenti e le policy interne di Character.AI.
Il caso è rilevante perché potrebbe costituire un precedente nel dibattito su come il diritto definisce – o meno – la responsabilità delle IA generative. Secondo alcuni esperti legali, ci troviamo di fronte a un vuoto normativo su ciò che costituisce “parola” quando è prodotta da sistemi automatici. Intanto, Google continua a promuovere Gemini anche tra i minori, pur avvertendo che i filtri “non sono perfetti”.
Leggi l’articolo completo Judge says chatbots don’t get free speech protections in teen suicide case su The Washington Post
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

