Un tribunale della Georgia ha stabilito che OpenAI non è responsabile per le “allucinazioni” generate da ChatGPT. La vicenda nasce da una causa intentata da un commentatore radiofonico statunitense, citato erroneamente in un articolo basato su un’interpretazione sbagliata di un ricorso legale, ottenuta tramite ChatGPT. Il tribunale ha sottolineato che la responsabilità per diffamazione richiede la consapevolezza di diffondere false informazioni, evidenziando invece la negligenza da parte del giornalista, che ha ignorato gli avvisi circa questi rischi, previsti dal funzionamento stesso del software, e non ha verificato i dati prima di pubblicare.
La sentenza ribadisce che la responsabilità degli sviluppatori di IA dipende dal modo in cui i modelli sono costruiti e gestiti. Per cui, secondo la sentenza, OpenAI non dovrebbe essere ritenuta colpevole se non ha manipolato o alterato consapevolmente i contenuti. L’utente, invece, ha il dovere di valutare criticamente le risposte ricevute e risponde personalmente dell’uso che ne fa, soprattutto se ignora evidenti errori. Il tribunale ricorda anche come sia difficile per le vittime dimostrare la negligenza dei gestori delle piattaforme.
La sentenza, inoltre, mette in guardia contro l’“AI washing”. I produttori di software devono comunicare con chiarezza i limiti delle loro tecnologie per non dare false aspettative.
Leggi l’articolo completo: Chi risponde degli errori di ChatGPT? Una sentenza USA fa chiarezza (per ora) su lastampa.it.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

