La coscienza artificiale è un tema affascinante e controverso che sta attirando sempre più l’attenzione di scienziati, filosofi e ricercatori di intelligenza artificiale. Con il rapido progresso dei sistemi di IA, in particolare dei grandi modelli linguistici come GPT-3, ci si interroga sulla possibilità che queste tecnologie possano un giorno sviluppare una forma di coscienza paragonabile a quella umana.
Non esiste a oggi una definizione universalmente accettata del concetto di coscienza. Tuttavia, la letteratura distingue tra la coscienza intesa come esperienza visiva, corporea e mentale, e la coscienza in termini funzionali come la capacità di elaborare informazioni e renderle disponibili globalmente, di introspezione, di integrare informazioni, di avere un modello di sé e del mondo, di anticipare eventi futuri, di avere un monologo interiore.
Un obiettivo degli studi sulla coscienza artificiale consiste nel replicare aspetti della coscienza biologica nei robot integrando tecniche di IA con le tecniche della robotica cognitiva, epigenetica e biomimetica. L’altro obiettivo riguarda l’uso dei robot come strumenti per lo studio della coscienza biologica.
Tra i primi eventi internazionali aventi come argomento la coscienza artificiale, nel novembre 2005 si è tenuto ad Agrigento l’International Conference on Artificial Consciousness. La conferenza è stata molto vivace e partecipata; un riassunto del dibattito è contenuto nel libro [1] che per molti anni è stato il riferimento nel settore. Successivamente, nel 2007 si è tenuto ad Arlington, USA, il AAAI Fall Symposium on AI and Consciousness [2] sponsorizzato dalla prestigiosa Association for the Advancement of Artificial Intelligence (AAAI). La chiave del successo di queste esperienze è stata la discussione tra gli studiosi di estrazione filosofica e delle scienze cognitive e gli studiosi provenienti dalle neuroscienze e dall’IA e robotica.
Venendo a oggi, la coscienza artificiale non è più un tema di ricerca di nicchia ma si avvia ad essere un tema mainstream nell’IA; ad esempio, un recente libro di testo di robotica cognitiva riporta la coscienza artificiale tra gli argomenti di studio [3]. Inoltre, il caso di Blake Lemoine, ingegnere di Google licenziato nel 2022 per aver sostenuto che il sistema LaMDA fosse cosciente [4], e il successo di ChatGPT hanno portato la questione della coscienza artificiale all’attenzione del grande pubblico.
L’estate del 2023 ha segnato un importante punto di svolta nello studio della coscienza artificiale grazie al contributo di David Chalmers [5] e, subito dopo, di un gruppo di neuroscienziati, filosofi ed esperti di IA guidati da Patrick Butlin e Robert Long [6]. Questi lavori hanno analizzato la possibilità che i modelli linguistici di grandi dimensioni (LLM) come ChatGPT possano essere considerati coscienti, proponendo indicatori strutturali necessari per un’entità cosciente.

David Chalmers ha analizzato ChatGPT alla luce delle teorie più accreditate sulla coscienza, individuando alcuni indicatori sufficienti (auto-rappresentazione, capacità conversazionali, intelligenza generale) e necessari (substrato biologico, sensori, modello del mondo e di sé, elaborazioni ricorsive, memoria di lavoro, personalità). Ha concluso che ChatGPT non possiede né le caratteristiche sufficienti né quelle necessarie per essere considerato cosciente, pur tracciando una strada per analizzare scientificamente la questione.
Poco dopo, il gruppo di Butlin e Long ha pubblicato un contributo, proponendo un metodo che prende spunto dalle teorie neuroscientifiche sulla coscienza per estrarre indicatori di proprietà strutturali che un sistema IA dovrebbe possedere per essere potenzialmente cosciente. Questi includono, tra l’altro, l’integrazione di informazioni sensoriali, la presenza della memoria di lavoro globale, il sistema attentivo, la generazione di aspettative. Anche in questo caso, a parere degli autori, nessun sistema di IA attualmente soddisfa questi criteri.
Entrambi i lavori sottolineano tuttavia l’importanza di considerare attentamente le implicazioni etiche dello sviluppo di IA potenzialmente coscienti. Il dibattito è aperto e la ricerca è molto attiva in questo campo.
C’è chi sostiene che i sistemi di IA attuali, pur impressionanti, siano ancora lontani dal possedere una vera coscienza, limitandosi a imitare schemi linguistici in modo statistico senza una reale comprensione del significato. Emerge il paragone con la “stanza cinese” di Searle [7]: un sistema che manipola simboli in base a regole, senza capirne il senso. Inoltre, fenomeni come le “allucinazioni” e gli errori commessi dai sistemi LLM indicherebbero che non sono in grado di sviluppare una comprensione profonda del testo.
D’altra parte, il progresso nell’abilità dei LLM di generare testo coerente, risolvere problemi in diversi domini e scrivere codice fa sorgere interrogativi sulla natura della loro intelligenza e sul confine tra simulazione e reale comprensione. E’ quindi possibile ipotizzare che, con il crescere della complessità, i LLM potrebbero avvicinarsi a capacità paragonabili a quelle umane.
Un aspetto chiave relativamente alla coscienza artificiale è capire se i LLM abbiano una qualche forma di auto-rappresentazione, un modello del mondo, il ragionamento astratto, o se si limitino a sfruttare correlazioni statistiche. Serve cautela nell’attribuire loro la coscienza degli umani, ma allo stesso tempo bisogna indagare scientificamente la questione senza preconcetti.

Oltre agli aspetti teorici, emergono implicazioni etiche cruciali [8]. Lo sviluppo di IA coscienti solleva interrogativi su come regolamentarne l’utilizzo per prevenire usi distorti o rischiosi. Serve quindi un approccio equilibrato che promuova l’innovazione tenendo conto dei potenziali impatti sociali.
Comprendere la natura della coscienza artificiale è importante non solo dal punto di vista teorico, ma anche per le profonde implicazioni etiche. Serve un approccio multidisciplinare che coinvolga informatici, filosofi, psicologi, neuroscienziati e altri esperti. E serve un dibattito pubblico informato per definire i confini e le regole di utilizzo di queste tecnologie. La sfida è cogliere le opportunità offerte dalla coscienza artificiale, minimizzando al contempo i rischi e ponendo l’essere umano al centro. Solo così potremo far sì che il progresso degli studi sulla coscienza artificiale sia un vantaggio per tutti.
Bibliografia
[1] Antonio Chella, Riccardo Manzotti (eds.): Artificial Consciousness. Imprint Academic, Exeter, UK, 2007.
[2] Antonio Chella, Riccardo Manzotti (eds.): Papers from the 2007 AAAI Fall Symposium on Artificial Intelligence and Consciousness, AAAI Press 2007. https://aaai.org/proceeding/fall-2007-01/
[3] Antonio Chella: Robots and Machine Consciousness. In: Angelo Cangelosi, Minoru Asada (eds.): Cognitive Robotics. MIT Press, Cambridge, MA, 2022, pp. 453 – 474. https://direct.mit.edu/books/oa-edited-volume/5331/chapter/3809852/Robots-and-Machine-Consciousness
[4] Blake Lemoine: Is LaMDA Sentient? – an Interview. Medium, Jun 11, 2022. https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
[5] David Chalmers: Could a Large Language Model Be Conscious? Boston Review, 2023.
[6] Patrick Butlin, Robert Long et al.: Consciousness in Artificial Intelligence: Insights from the Science of Consciousness. ArXiv, 202.3 https://doi.org/10.48550/arXiv.2308.08708
[7] David Cole: The Chinese Room Argument, The Stanford Encyclopedia of Philosophy (Summer 2023 Edition), Edward N. Zalta & Uri Nodelman (eds.). https://plato.stanford.edu/archives/sum2023/entries/chinese-room/
[8] Antonio Chella: Artificial consciousness: the missing ingredient for ethical AI?. Front. Robot. AI 10:1270460, 2023. https://www.frontiersin.org/articles/10.3389/frobt.2023.1270460
Immagine: Foto di Jose A.Thompson su Unsplash

