• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA-etica “su palafitte”: una proposta per l’epoca dell’Intelligenza Artificiale

IA-etica "su palafitte"

Introduzione

L’intelligenza artificiale (IA) rappresenta una delle innovazioni tecnologiche più rivoluzionarie del nostro tempo, con un potenziale immenso per trasformare radicalmente le società. La Pontificia Accademia per la Vita (PAV), nel volume “Etica teologica della vita” (2022), ha posto l’accento sull’importanza di un’IA etica e responsabile, proponendo principi quali trasparenza, responsabilità, sicurezza e dignità umana. Questo approccio si riflette anche nella “Rome Call for AI Ethics” (2020), sottoscritto da istituzioni come Microsoft e IBM, dove si promuove un’IA che sia sempre al servizio del bene comune e della cura del creato, evitando l’alienazione dell’essere umano.

L’IA, paragonata da molti all’invenzione della scrittura, suscita preoccupazioni analoghe a quelle espresse da Platone nel Fedro. Come la scrittura, secondo Platone, rischiava di indebolire la memoria e la saggezza umana, oggi si teme che l’IA possa ridurre le capacità dell’uomo di comprendere e interagire con il mondo. Le preoccupazioni vanno ben oltre i rischi esistenziali legati all’Intelligenza Artificiale Generale (AGI), come la perdita di posti di lavoro o la manipolazione delle dinamiche democratiche tramite le fake news. Anche gli stessi pionieri dell’IA, come Yoshua Bengio,  sollevano allarmi sui rischi futuri, spesso inquadrati come strategie retoriche che mirano a creare la necessità di una supervisione esperta. Tuttavia, questa ambiguità nei confronti dell’IA – al contempo fonte di paura e speranza – evoca una sorta di culto moderno, dove i miliardari creatori di IA assumono il ruolo di sacerdoti di un futuro in cui la malattia, la morte e persino i limiti planetari saranno superati. Questo atteggiamento ambiguo richiama il culto di una divinità, in cui si confida ciecamente nelle promesse dei sacerdoti tecnologici.

L’IA come Sistema Materiale

Kate Crawford, nel suo libro Atlas of AI, sfata l’idea di un’IA magica o astratta, sottolineando il suo carattere materiale e concreto. L’IA, spiega Crawford, si basa su risorse naturali, lavoro umano e dati, con un impatto sociale ed ecologico rilevante. L’estrazione di dati, spesso invisibile, e il consumo di risorse per addestrare modelli di IA comportano costi ambientali elevati, mentre il lavoro umano necessario per la gestione di questi sistemi è spesso nascosto o sottopagato. L’IA, lungi dall’essere neutrale, amplifica le disuguaglianze esistenti, perpetuando bias e pregiudizi insiti nei dati di addestramento. In questo senso, Crawford ci invita a considerare l’IA non solo come un fenomeno tecnologico, ma anche come una questione sociale ed ecologica, poiché influisce profondamente sull’ambiente e sui rapporti di potere tra individui e istituzioni.

Analogamente, Yuval Noah Harari nel suo libro “Homo Deus” riflette su come la tecnologia, inclusa l’IA, possa trasformare l’umanità, portando alla creazione di un “Homo Deus”, un essere umano potenziato con capacità quasi divine. Harari avverte che questo sviluppo potrebbe creare una società profondamente iniqua, in cui solo pochi, quelli che hanno accesso ai benefici della tecnologia, vivranno in una condizione di superiorità rispetto alla maggioranza. Sebbene la tecnologia prometta di eliminare malattie e prolungare la vita umana, potrebbe anche dividere la società, aggravando le disuguaglianze sociali e accentuando il divario tra chi ha e chi non ha accesso ai vantaggi tecnologici. Harari invita dunque a una riflessione critica su come gestire l’accesso a questi sviluppi per evitare scenari distopici.

Un contributo cruciale al dibattito etico sull’IA è fornito dall’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” di Emily Bender, Timnit Gebru e altri, in cui si evidenziano i pericoli legati allo sviluppo di modelli di linguaggio troppo grandi senza un’adeguata riflessione sulle implicazioni etiche e sociali. Il lavoro mette in luce come questi modelli, che apprendono da grandi quantità di dati, possano replicare e amplificare i bias esistenti, producendo risultati discriminatori e non equi. La creazione di modelli linguistici di queste dimensioni, sottolineano gli autori, rischia di perdere di vista l’impatto che tali tecnologie possono avere su minoranze e gruppi già svantaggiati.

La Rivoluzione Epistemologica dell’IA

Come suggerito da Nello Cristianini nel suo libro “La scorciatoia: Come le macchine sono diventate intelligenti senza pensare in modo umano“, l’IA ha introdotto un cambio radicale nel nostro modo di conoscere il mondo: ha spostato l’attenzione dal “perché” al “come”. Tradizionalmente, la scienza e la filosofia si sono occupate di spiegare il mondo attraverso la formulazione di teorie generali e leggi fondamentali, ponendosi la domanda “perché” le cose accadono. L’IA, invece, soprattutto nel campo del machine learning, si concentra sull’analisi di grandi quantità di dati per individuare pattern utili a fare previsioni efficaci, un approccio che predilige l’induzione rispetto alla deduzione.

Questo cambiamento epistemologico, spiega Cristianini, abbandona la ricerca di verità universali per concentrarsi sull’efficacia statistica. Tale approccio rievoca il problema dell’induzione identificato da David Hume (“An Inquiry Concerning Human Understanding“): non esiste una garanzia logica che le regolarità osservate nel passato si manterranno in futuro. Il famoso esempio di Bertrand Russell del tacchino (“The Problems of Philosophy“), nutrito ogni giorno fino a Natale quando viene ucciso, illustra il pericolo di fare affidamento su aspettative basate solo su esperienze passate.

L’approccio dell’IA, come quello descritto da Vladimir Vapnik nella “Statistical Learning Theory“, non cerca di comprendere i “pensieri di Dio” o i meccanismi nascosti dietro i fenomeni, ma di fare previsioni accurate. Questo passaggio dall’indagine teorica alla mera previsione rappresenta una rivoluzione epistemologica. Tuttavia, il rischio è che l’IA finisca per promuovere un pensiero conformista, limitato alla statistica, incapace di valorizzare le eccezioni e il nuovo.

L’IA ha dimostrato grande efficacia nell’analisi di dati e previsioni, ma come sottolinea Cristianini, è fondamentale che gli esseri umani mantengano la capacità di ispezionare e verificare le decisioni dell’IA. La trasparenza deve essere alla base dello sviluppo di questi sistemi, affinché possano essere sottoposti a stress test e valutazioni rigorose. L’IA non può agire al di fuori del controllo umano, e gli esseri umani devono conservare la responsabilità sulle decisioni.

Alcuni studi recenti suggeriscono che il deep learning può essere utilizzato per modellare la conoscenza tacita, ossia quel tipo di conoscenza difficile da esprimere e codificare. Funmi e Demola Obembe, nel loro lavoro presentato alla “European Conference on Knowledge Management”, esplorano come le reti neurali profonde possano rappresentare e codificare questa conoscenza implicita, facilitando il suo trasferimento. Il loro studio sottolinea come il deep learning possa creare modelli in grado di catturare conoscenza tacita, rendendola accessibile e utilizzabile all’interno di organizzazioni e altri contesti, un potenziale che rappresenta un progresso significativo nella gestione della conoscenza.

Per un’Etica Pluralista e Interdisciplinare dell’IA

La proposta etica dell’IAetica “su palafitte” si basa sull’idea che sia necessario costruire una solida base etica in un terreno incerto. Le palafitte rappresentano metaforicamente una struttura teorica forte, costruita su principi universali, ma anche capace di adattarsi alla complessità del mondo contemporaneo. Questo approccio si distingue per il suo pluralismo etico e per l’integrazione di diverse prospettive morali e disciplinari.

Il pluralismo etico si fonda sul riconoscimento che esistono molteplici visioni del mondo, ciascuna con il proprio valore intrinseco. Questo non significa un semplice relativismo, ma la consapevolezza che il confronto tra diverse prospettive può arricchire il dibattito morale. L’IAetica “su palafitte” promuove quindi un dialogo tra visioni etiche diverse, sia laiche che religiose, con l’obiettivo di costruire soluzioni inclusive e condivise.

L’interdisciplinarità è un elemento centrale di questa etica, che riconosce l’importanza di integrare conoscenze provenienti da vari campi, dalle scienze naturali all’informatica, dalle scienze sociali alla filosofia. Solo attraverso una prospettiva interdisciplinare è possibile affrontare le complesse sfide etiche poste dall’IA, garantendo che le decisioni siano informate dalle migliori conoscenze disponibili. Ad esempio, le scelte etiche sull’uso dell’IA in ambito medico devono tener conto delle conoscenze scientifiche più avanzate, ma anche delle implicazioni morali e sociali di tali tecnologie.

I Principi Regolativi dell’IA-etica su Palafitte

I principi regolativi costituiscono la colonna portante dell’IAetica “su palafitte”. Questi principi non sono statici, ma devono essere adattati alle situazioni specifiche per garantire la loro efficacia. Ecco i quattro principi fondamentali che guidano questa etica:

  1. Beneficenza: promuovere il benessere e prevenire il danno. In ambito IA, questo significa progettare sistemi che migliorino la qualità della vita, come gli algoritmi medici che forniscono diagnosi accurate e affidabili, riducendo gli errori. Un esempio è l’utilizzo dell’IA in aree remote per facilitare diagnosi mediche, come i sistemi di telemedicina.
  2. Giustizia: garantire l’equità e la giusta distribuzione delle risorse. Gli algoritmi di IA devono essere progettati in modo equo, evitando pregiudizi e discriminazioni. Per esempio, gli algoritmi di selezione del personale devono essere sviluppati senza bias discriminatori, garantendo pari opportunità a tutti i candidati.
  3. Libertà: rispettare l’autonomia e il diritto di autodeterminazione degli individui. Gli utenti devono avere il controllo sui propri dati personali, con la possibilità di decidere come e quando questi dati possono essere utilizzati. Il rispetto della privacy è fondamentale, e gli sviluppatori di IA devono garantire che i dati siano raccolti e gestiti con il consenso esplicito degli utenti.
  4. Conoscenza: garantire trasparenza e comprensione. I sistemi di IA devono essere comprensibili e trasparenti per gli utenti. Gli algoritmi di raccomandazione, ad esempio, dovrebbero spiegare chiaramente perché determinati contenuti vengono suggeriti, offrendo agli utenti la possibilità di intervenire e modificare le impostazioni.

Questi principi regolativi offrono una base solida per affrontare i dilemmi etici dell’IA e garantire che essa operi in modo equo e trasparente. Tuttavia, è fondamentale che vengano costantemente aggiornati e adattati alle specifiche situazioni, poiché il contesto in cui operano le tecnologie intelligenti è in continua evoluzione.

La metafora delle palafitte esprime l’idea di un’IA etica che si costruisce su basi solide, ma che trova la sua forza non solo nei principi teorici, bensì nella collaborazione attiva e costante di una comunità. Come le palafitte, che sono robuste grazie al lavoro collettivo degli abitanti del villaggio – i quali tagliano insieme i tronchi nella foresta e li trasportano per costruire le abitazioni di tutti – anche un’etica per l’IA richiede il contributo condiviso di diverse discipline e prospettive. È attraverso questo sforzo comune, unito e coordinato, che si può edificare una struttura teorica flessibile e solida, capace di rispondere alla complessità delle sfide etiche contemporanee.

Conclusione: Sussidiarietà e Moderazione come Principi Guida

Daniel Andler, nel suo libro “Il duplice enigma: Intelligenza artificiale e intelligenza umana“, propone due principi chiave per orientare un uso etico dell’IA: la sussidiarietà e la moderazione. Il principio di sussidiarietà implica che l’IA debba essere utilizzata solo quando essa può apportare un valore aggiunto superiore a quello dell’intelligenza umana. Ciò significa che l’IA non dovrebbe mai sostituire l’uomo in compiti che egli può svolgere meglio, preservando così l’autonomia e la dignità umana. Questo principio richiama un uso responsabile della tecnologia, orientato a migliorare l’esperienza umana, senza spogliarla del suo ruolo centrale.

Il principio di moderazione, invece, ci ricorda che l’IA non deve occupare un ruolo incontestabile nella nostra società. Andler avverte che, se affidiamo troppo potere all’IA, rischiamo di creare dipendenze tecnologiche che riducono la nostra autonomia decisionale e, in ultima analisi, la nostra umanità. La moderazione invita a mantenere un sano equilibrio tra l’efficienza tecnologica e l’autodeterminazione umana, assicurando che l’IA rimanga uno strumento al servizio dell’uomo e non un sostituto della complessità e ricchezza dell’esperienza umana.

L’IAetica “su palafitte” si presenta come una proposta etica solida, costruita su basi flessibili e in grado di adattarsi ai cambiamenti tecnologici e sociali. Come le palafitte, che trovano la loro forza nella cooperazione comunitaria, anche l’etica per l’IA si fonda sul contributo collettivo di diverse discipline e prospettive morali. Questo approccio interdisciplinare e pluralista è essenziale per garantire che l’IA operi in modo equo, trasparente e sempre al servizio del bene comune.

In un mondo sempre più tecnologico, è fondamentale preservare la nostra capacità di giudizio morale e di prendere decisioni basate su valori etici, non solo su calcoli o algoritmi. Ciò che ci rende umani è la nostra empatia, la capacità di riflettere sul significato delle nostre azioni e di considerare il bene comune. Solo con un’etica solida e condivisa possiamo garantire che l’IA rimanga uno strumento al servizio dell’umanità, rispettando la nostra dignità e migliorando la qualità della vita.

Esplora altri articoli su questi temi