(Questo articolo è stato pubblicato sul XV Rapporto Civita “Next Gen AI. Opportunità e lati oscuri dell’Intelligenza Artificiale nel mondo culturale e creativo”, Marsilio Editore 2024)
Il potere delle Big Tech è sempre più forte: da una parte proclamano le grandi opportunità dell’Intelligenza Artificiale, dall’altra i rischi addirittura per l’esistenza stessa della specie umana. Impossibile non cogliere l’intrinseca contraddizione. Le Big Tech si giustificano presentando l’IA come un fenomeno inevitabile, dotato di una propria soggettività, che la rende un attore autonomo nelle dinamiche sociali. Ma non è così. E spesso questa prospettiva è utilizzata come strumento retorico per nascondere ragioni più profonde, legate alle dinamiche dell’industria dell’IA, che è necessario indagare come premessa ad un approccio etico.
Mustafa Suleyman è un imprenditore britannico di successo, uno dei massimi esperti di IA, e quindi un protagonista della rivoluzione in corso. Nel 2010 con Demis Hassabis e Shane Legg ha fondato la startup DeepMind, acquistata nel 2014 da Google per oltre mezzo miliardo di dollari.
DeepMind ha creato tecnologie all’avanguardia, come AlphaZero, IA che batte i campioni mondiali del gioco Go, GraphCast, IA che prevede il meteo, e altre IA di frontiera. Nel 2022 Suleyman ha fondato la startup Inflection AI, che ha raccolto oltre un miliardo di dollari di investimenti, prima di lasciarla a sua volta a Marzo 2024 per diventare amministratore delegato di Microsoft AI, nuova divisione IA del colosso creato da Bill Gates.
Il recente libro «The coming wave» («L’onda che verrà», 2023) di Suleyman va quindi preso sul serio quando parla delle opportunità enormi offerte dall’IA e, allo stesso tempo, della difficoltà a contenerne i rischi. Fin dalla scelta del titolo – una metafora – l’autore rivela le ambiguità di chi, ai vertici delle Big Tech dell’IA, a Silicon Valley e negli altri distretti, cerca di determinare quale sarà il futuro del mondo, e, allo stesso tempo, di indirizzare la narrazione e influenzare il dibattito pubblico.
Come ci insegna lo scienziato cognitivo di Berkeley George Lakoff, le metafore non sono solo una figura retorica per abbellire un testo poetico, ma sono soprattutto uno strumento che la mente usa per comprendere la realtà e descriverla, e quindi pervadono anche il linguaggio quotidiano. Quando parliamo, scegliamo accuratamente le metafore da usare perché permettono di indirizzare il discorso, offrendo al destinatario del messaggio solo le opzioni che vogliamo mettere sul tavolo.
Celebre è l’analisi di Lakoff sul lessico usato nel 2001, dopo gli attentati dell’11 Settembre, dal Presidente americano George W. Bush nel «dichiarare guerra al terrorismo». Questa espressione ha un carattere metaforico, perché dal punto di vista del significato letterale non è ben formata: il terrorismo non è contemplato nel diritto bellico fra Stati, ma è invece una questione di politica interna. Scegliere di usare espressioni come questa, in risposta all’attentato alle Torri Gemelle, implica che l’unica soluzione ammessa non è il ricorso alla Polizia, ma l’invasione di uno Stato nazionale – in quel caso, l’Iraq – come si fa appunto quando si è in guerra.
Allo stesso modo, quando Suleyman paragona metaforicamente l’impatto dell’IA a un’onda, uno tsunami o un’esondazione, vuole dare per presupposto che l’introduzione dell’IA sia inevitabile, come un fenomeno puramente naturale. Inoltre, ci vuole dire che un’onda si può solo “contenere”, e non certo guidare.
La metafora dell’onda è potente, l’autore ricorda ovviamente i riferimenti biblici e ad altre religioni e mitologie. Certamente Suleyman con questa metafora vuole rappresentare anche l’aggregato delle forze che guidano lo sviluppo dell’IA, inclusi investimenti, ricerca scientifica e domanda di mercato. Vuole rendere chiaro l’impatto pervasivo e travolgente che l’IA avrà sulla società e trasmettere un senso di urgenza.
Ma questo tipo di metafora non è una novità nell’ambito del dibattito sull’IA: è anche interpretabile come un ulteriore sviluppo della retorica dell’«inevitabilismo tecnologico», una delle tante narrazioni supportate da Big Tech per giustificare l’introduzione di qualsiasi tecnologia e proteggerla da critiche, ancorché legittime. Nell’affrontare la narrazione sull’impatto dell’IA, Suleyman vuole quindi “soggettivizzare” la tecnologia: cioè, attribuirle poteri propri per renderla un attore autonomo di dinamiche sociali. L’IA diventa così indipendente dal contesto economico, politico e sociale che la crea, quasi che le grandi Big Tech siano esenti da ogni responsabilità circa gli scenari implementati.
Questa operazione, è bene sottolineare, rischia di mettere in secondo piano una prospettiva più ampia sui fenomeni in corso: Big Tech sminuisce molti aspetti legati all’IA come «potere», aspetti che non si esauriscono nella tecnologia, né negli algoritmi. Come ha ben evidenziato Kate Crawford in «Atlas of AI», l’IA è espressione di un sistema economico, politico e sociale, e coinvolge una moltitudine di aspetti, che vanno oltre l’algoritmo IA: quelli geopolitici sul possesso delle risorse minerarie, come le terre rare, la raccolta di finanziamenti trillionari per la costruzione di nuovo hardware per l’IA, la competizione con le università per assicurarsi le competenze migliori, le condizioni dei lavoratori che etichettano e ripuliscono i dati per l’apprendimento delle IA, ecc.
Si può quindi sospettare che l’enfasi assegnata alla soggettivizzazione sia anche dettata da una sorta di “utilità politica”: distogliere l’attenzione dai vari attori concreti, i cui interessi devono rimanere in ombra.
Questa narrazione adottata da Suleyman indebolisce l’analisi complessiva del libro, che per altro è in gran parte condivisibile. L’autore evidenzia giustamente il potenziale impatto dell’IA sugli stati nazionali, la necessità di introdurre regolamentazioni responsabili, e l’esigenza di una comprensione più profonda da parte del pubblico e di un dibattito più informato sui rischi e opportunità dell’IA.
La metafora dell’onda-che-sta-arrivando nel titolo del libro di Suleyman va allo stesso tempo presa più alla lettera, perché manca un elemento (e la sua assenza non è un caso): in fisica, l’onda in un fluido è sempre l’effetto di un’altra causa, non esiste di per sé. Dovremmo quindi chiederci: quali sono le cause del frangente tecnologico che ci viene incontro?
Per comprendere le dinamiche che generano l’onda dell’IA, ma che sono lasciate in disparte da Suleyman, va considerato più attentamente il contesto economico e sociale che determina e permette lo sviluppo dell’IA, di cui parla la ricercatrice americana Kate Crawford. In particolare, lo sviluppo dell’IA va considerato all’interno del sistema capitalistico in cui, nel bene e nel male, siamo immersi, per capire se e come contribuisca all’origine dell’onda.
Alla luce di quanto ha evidenziato la filosofa Hannah Arendt nel secondo dopoguerra, il capitalismo non è un sistema in equilibrio: non può rimanere fermo dove è. Esplorando il concetto di «accumulazione originaria del capitale» di Karl Marx, la Arendt ha argomentato che tale processo non è un evento unico e conclusivo da cui ha origine il capitalismo, ma deve essere ripetuto. Se ciò non accadesse, il motore dell’accumulazione capitalistica si fermerebbe improvvisamente.
Dopo la originaria soggiogazione al mercato – prima, della vita umana come lavoro, poi della natura come proprietà terriera e, infine, degli scambi fra esseri umani sotto forma di denaro – il processo prosegue e comporta la mercificazione continua di nuovi aspetti del mondo sociale e naturale. Oggi questa espansione non comporta più solo l’acquisizione di nuove risorse naturali e continenti (come avvenuto con l’imperialismo e la colonizzazione), ma la trasformazione di vari aspetti della vita umana in merci.

Come ha notato l’economista dell’Harvard Business School, Shoshana Zuboff, nel suo libro «The age of surveillance capitalism», se il processo di accumulazione del capitale è in continua espansione andrà inevitabilmente a invadere anche spazi del nuovo mondo digitale. E si passa dal capitalismo al capitalismo della sorveglianza.
E infatti, evidenzia la Zuboff, i capitalisti del settore digitale hanno trovato negli ultimi vent’anni una nuova fonte di materie prime da mercificare, cioè, rendere beni da vendere sul mercato: invece di appropriarsi di risorse naturali o nuovi continenti, il nuovo modello economico estrae dagli utenti su Internet dati personali e comportamentali per creare modelli predittivi del nostro comportamento sempre più accurati.
Questi modelli predittivi diventano «future comportamentali», scommesse su come ci comporteremo di fronte ad una data pubblicità online: con che probabilità cliccheremo sull’annuncio pubblicitario? I future comportamentali, come i future relativi alle materie prime o agli asset finanziari, sono contratti finanziari che obbligano le parti coinvolte a scambiare un asset a un prezzo e in una data futura predeterminati. Ma anziché essere venduti nelle borse tradizionali, vengono venduti ai brand, che vogliono promuovere i propri prodotti, sul nuovo mercato delle aste automatizzate per acquistare gli spazi pubblicitari virtuali creato dalle stesse piattaforme tecnologiche, come Google e Facebook.
All’uscita del suo libro, nel 2018, la Zuboff non poteva prevedere che i rapidi avanzamenti dell’IA generativa avrebbero presto portato il “capitalismo digitale” ad invadere ed appropriarsi di un nuovo ambito della nostra vita sociale: la conoscenza umana, da trasformare in merce e rivendere.
Stiamo parlando dell’appropriazione di tutta la conoscenza umana fatta da OpenAI prima, e poi da tutti gli altri sviluppatori di IA generative. Questi sistemi, basati su tecnologie di apprendimento automatico, sono stati addestrati a partire dal materiale scaricato dal Web: pagine, immagini, libri digitali, audio, video, ecc. Molto di questo materiale è coperto da copyright: ad esempio, le pagine di quotidiani o riviste online, o i libri in formato elettronico presenti in siti pirata.
Per la Arendt un elemento che ha reso possibile l’imperialismo è stata la limitata regolamentazione legale nei territori coloniali. Oggi la rapidità dell’evoluzione della tecnologia digitale supera la capacità del legislatore di regolamentare adeguatamente queste nuove pratiche: si creano nuovi spazi di «lawlessness» dove le aziende tecnologiche possono espropriare risorse digitali per monetizzarle. Per addestrare i modelli IA Big Tech reclama esplicitamente il diritto di utilizzare il materiale presente sul Web senza il consenso degli autori o detentori di copyright, sfruttando il fatto che sta operando in una zona grigia del diritto.
In questa zona d’ombra legale, le Big Tech asseriscono che l’addestramento di modelli IA non è vietato nella normativa sul copyright (cosa impossibile, perché tali norme risalgono ad un periodo in cui non esisteva neanche il concetto di machine learning), o tentano di interpretare forzatamente concetti giuridici come il «fair use» per piegare il diritto al loro servizio.
Dimostrando dubbi circa la legalità del loro stesso approccio, Microsoft, Google e OpenAI hanno deciso si manlevare i loro clienti dai rischi di cause legali dovute a violazioni del copyright da parte dei loro strumenti, cioè si impegnano a rimborsare gli eventuali danni legali.
Il valore creativo e intellettuale delle opere viene estratto e trasformato in valore economico senza compensare adeguatamente gli autori originali, a cui non viene richiesto il consenso, e che rischiano così di venire sfruttati.
Ma non si tratta solo di plagio o di utilizzo di informazioni per produrne di nuove: i sistemi di IA generativa sono in grado di generare contenuti che addirittura imitano lo stile di specifici scrittori o artisti. Ad esempio, un large language model può essere addestrato su opere di Shakespeare per generare testi che rispecchiano fedelmente lo stile, il vocabolario e la sintassi tipiche del bardo. I diffusion model possono creare immagini che riflettono lo stile unico di un pittore, inclusi tratti, colori e composizioni.
Autori e artisti si sentono frustrati, e devono affrontare una situazione nuova anche per la dimensione quantitativa del danno subito: un’opera derivata o l’imitazione dello stile di un artista sono sempre esistiti, ma il fenomeno era auto-limitato dalla difficoltà del compito. Con l’IA generativa, invece, chiunque è in grado di scrivere o creare opere d’arte copiando lo stile di un artista professionista.
A questa frustrazione si aggiunge il fatto che probabilmente solo i grandi autori e artisti e le grandi case editrici riusciranno a farsi retribuire per l’utilizzo delle loro opere, potendosi permettere costose azioni legali (si vedano i recenti accordi fra OpenAI e la News Corp di Rupert Murdoch).
Rimane agli artisti la consolazione di avere la prerogativa di essere comunque gli unici realmente dotati della capacità creativa? Molti ritengono di sì, ma forse non è più certa neanche questa prospettiva consolatoria. Il motivo è che l’IA contemporanea non è più quella simbolica dei primi decenni seguiti al fondativo Dartmouth College Seminar del 1956. Allora la ricerca si era focalizzata sull’idea di riprodurre l’intelligenza umana con un computer, codificando in un programma i modelli espliciti sviluppati per spiegare il funzionamento delle nostre capacità mentali (si pensi alla grammatica del linguaggio e alla logica). Questo approccio simbolico all’IA certamente era lontano da quello che chiamiamo creatività. Quanto noi definiamo creatività, infatti, è soprattutto parte di quella che il filosofo e economista ungherese Michael Polanyi, definisce la nostra conoscenza tacita, parzialmente fuori dalla nostra razionalità e coscienza, quindi preclusa alle capacità dell’IA tradizionale che modellava solo la nostra conoscenza esplicita.
Ma ora il deep learning neurale permette alle macchine di imitare anche la nostra conoscenza tacita, che è alla base del sapersi muovere nel mondo, percepirlo e manipolarlo: dalle capacità linguistiche (ChatGPT impara a parlare senza che nessuno le spieghi le regole grammaticali), a quelle visuali (diagnostica medica per immagini, veicoli a guida autonoma, diffusion model, ecc.). Quindi forse anche alcuni aspetti della creatività potranno essere riprodotti da questo tipo di macchine.
In conclusione, l’IA, come dice Suleyman, è sì un’onda che travolgerà la nostra società, provocando profondi cambiamenti, ma non è un fenomeno spontaneo e inevitabile. Per spiegare quella che si prospetta come una vera e propria rivoluzione del nuovo millennio non possiamo appiattirci sulla tesi dell’imprenditore britannico, ma abbiamo il dovere di interrogarci sull’origine dell’onda. L’IA va inquadrata nelle dinamiche economiche e sociali che portano il capitalismo a evolvere inesorabilmente. Questa è la causa dell’onda dell’IA: il continuo processo di evoluzione del capitalismo, necessario alla sua stessa sopravvivenza, che lo porta a cercare nuove fonti di materie prime da mercificare: questa volta la nostra conoscenza e il sapere, e l’IA è solo lo strumento.

