L’introduzione di ChatGPT ha ormai definitivamente cambiato il nostro rapporto con la tecnologia, passando da IA limitate al riconoscimento di immagini a sistemi capaci di conversare in modo estremamente fluente. Questa tendenza, ormai diventata standard, ha portato le persone verso una sorta di culto fideistico verso i nuovi sistemi dotati di IA, tanto che molti ne accettano acriticamente le risposte e si fidano completamente di ciò che trovano scritto.
Tuttavia, l’atteggiamento soprammenzionato costituisce un errore enorme. Difatti, diversamente dai motori di ricerca, ChatGPT fornisce risposte elaborate e dirette, facendoci percepire un’intelligenza umana in questo procedimento che, però, non rappresenta nient’altro che un significato che noi gli attribuiamo umanamente: pur generando testi estremamente plausibili da un punto di vista sintattico, l’IA non comprende ciò che dice e può commettere errori significativi.
Come si può immaginare, quanto detto comporta rischi rilevanti, tra cui la possibilità di diffondere rapidamente informazioni fuorvianti, oltre ai diversi interrogativi etici che sorgono a causa dell’accessibilità crescente di questi mezzi, soprattutto riguardo le fonti dei dati e il controllo da parte di poche grandi aziende, il cui interesse principale è il profitto piuttosto che la trasparenza.
Per poter analizzare e indirizzare queste problematiche intraviste, è stato proposto di recente la creazione di un centro di ricerca internazionale sull’IA, simile al CERN, che promuova uno sviluppo etico e responsabile della tecnologia. Tuttavia, questa rimane, per ora, un’utopia.
Leggi l’articolo completo L’intelligenza artificiale parla su La rivista Il Mulino.
Immagine generata tramite DALL-E.

