L’invisibilità dell’IA
L’intelligenza artificiale, proprio come l’elettricità, è invisibile. È una tecnologia di uso generale che opera la sua magia dietro le quinte. I contorni e le conseguenze dell’IA rimangono sfuggenti per noi: non possiamo vederla all’opera, ma in qualche modo ne sperimentiamo l’impatto.
Come altre tecnologie di uso generale come il motore a combustione interna, la telefonia e il chip di silicio, l’intelligenza artificiale sta diventando onnipresente. È ovunque e in nessun luogo allo stesso tempo, sia onnipresente che inosservata.
L’invisibilità dell’intelligenza artificiale è qualcosa di raramente discusso, tantomeno considerato approfonditamente. Basta fermarsi a pensarci: non si riesce mai effettivamente a posare gli occhi sull’IA. In un modo che ricorda un po’ Dio, gli effetti dell’IA vengono interpretati solo retroattivamente.
In una straordinaria prima mondiale, si scopre che l’IA e Dio (o, almeno, il rappresentante vivente di Dio sulla Terra) si uniranno presto. Come il mondo ha recentemente appreso – dalla Prima Ministra italiana Giorgia Meloni – Papa Francesco parteciperà al vertice del G7 di giugno 2024 per discutere di intelligenza artificiale. Sebbene la partecipazione papale nelle attività del G7 possa essere senza precedenti, Papa Francesco non ha certo esitato ad affrontare le immense sfide dell’IA.

In passato, il Papa ha discusso sia dei suoi dubbi che del suo ottimismo riguardo all’IA. Pur incoraggiando a distaccarsi dalle visioni pessimistiche sulle tecnologie emergenti, le sue riflessioni hanno costantemente messo in luce rischi drammatici. Ha, per esempio, messo in guardia contro l’”inquinamento cognitivo”, poiché gli algoritmi di apprendimento automatico distorcono la realtà e alimentano narrazioni false, intrappolando gli individui in bolle ideologiche. È interessante notare che ha chiesto un trattato globale vincolante per regolare l’IA, sottolineando l’importanza di preservare i valori umani e di scongiurare la minaccia di una “dittatura tecnologica” che mette in pericolo l’umanità.
La disinformazione digitale, i bot dei social media, il disinteresse delle grandi aziende tecnologiche per la privacy personale e la super-sorveglianza dell’IA: le sfide etiche dell’intelligenza artificiale sono schiaccianti e possiamo sicuramente beneficiare del contributo di leader religiosi devoti in questo grande dibattito politico dei nostri tempi. Tuttavia, mentre il dibattito sull’etica dell’IA si concentra principalmente sull’assicurare un uso responsabile della tecnologia, persiste una sfida sociologica correlata e pressante: comprendere perché le persone affidano sempre più decisioni personali all’intelligenza delle macchine automatizzate.
Un tempo celebrata come soluzione per le nostre vite frenetiche, le tecnologie digitali alimentate dall’IA promettevano decisioni istantanee e connessioni sociali, il tutto gestito da dispositivi intelligenti. Ma man mano che l’intelligenza artificiale avanzata si integrava sempre più nei legami sociali, sono emerse altre conseguenze (più minacciose). L’autonomia umana ha iniziato a essere minacciata da erosione, poiché gli individui sono diventati intrappolati in vaste reti sociali e innumerevoli compiti digitali – dall’aggiornare al mettere “mi piace”, ritwittare e incorporare dati dinamici nelle loro vite.
Gli algoritmi predittivi e i sistemi di raccomandazione automatizzati promettono uno stile di vita più rapido e fluido. Ma il dilemma è che gli individui rischiano di perdere il contatto con il proprio processo decisionale personale e le relazioni etiche con altre persone. Come è potuto succedere? Come è diventata così diffusa la presa di decisioni automatizzata, effettivamente in contrasto con la scelta personale? Nell’era dell’IA, perché l’automazione algoritmica delle macchine e il processo decisionale personale sono diventati stranamente confusi?
L’esternalizzazione delle decisioni
Ho sostenuto nei miei libri precedenti, inclusa “La Cultura dell’Intelligenza Artificiale” (Codice Edizioni, 2021), che oggi l’autonomia personale si sposta sempre più verso le macchine intelligenti, in un processo simile a un’’esternalizzazione decisionale’ (decision outsourcing). Questo fenomeno di esternalizzazione delle decisioni agli algoritmi intelligenti mira a contenere l’incertezza e la complessità generate dalla rivoluzione digitale, eppure non fornisce tutte le risposte. Mentre l’IA diventa più radicata nella società, è fondamentale notare che non è onnicomprensiva. Persistono varie forme di insoddisfazione personale, resistenza culturale e discordia sociale. La reazione contro la tecnologia (techlash) è un esempio lampante.

Delegare le decisioni ad agenti artificiali e algoritmi intelligenti comporta significativi rischi per l’autonomia personale. La preoccupazione, naturalmente, è che questa tendenza verso l’ingegneria predittiva nella gestione dello stile di vita suggerisca che ci sia una sorta di ‘difetto’ o ‘falla’ nell’io individuale. Questo sicuramente comporta grandi implicazioni etiche, ma anche ampie conseguenze pratiche per i responsabili delle politiche, gli attivisti, i cittadini e le comunità. Le normative convenzionali e le soluzioni aziendali, per esempio, faticano a stare al passo con l’innovazione tecnologica. Nonostante la capacità di affidare le decisioni alle macchine intelligenti, ciò non si è tradotto nel godere di vite più autodirette. Quindi, ancora una volta, ciò solleva la domanda: perché le persone sentono la necessità di automatizzare sempre di più le loro vite per raggiungere la realizzazione?
Oggi le persone si sentono sempre più sopraffatte e, a volte, assediate, nella nostra cultura incentrata sui dati. Questo è in parte, credo, perché gli algoritmi predittivi intelligenti dettano incessantemente ciò che si presume sia il nostro vero desiderio.
Il circolo vizioso delle previsioni algoritmiche
Nel mezzo dello tsunami tecnologico dei big data e delle analisi predittive, è estremamente difficile sapere cosa si possa realmente desiderare. Le previsioni meticolosamente elaborate e le probabilità calcolate incorporate negli algoritmi fungono da surrogati dell’autonomia personale, limitando la capacità degli individui di agire in modo autodiretto e ostacolando lo sviluppo di legami sociali profondi.
Le previsioni automatizzate generate da calcoli algoritmici e tecnologie di raccomandazione automatica sono sempre più accolte come il mezzo culturalmente predominante e accettabile per mitigare l’ansia nell’era digitale. Nonostante le promesse dell’analisi predittiva di ridurre le preoccupazioni generate dalla paura, dal dubbio, dall’incertezza e dall’ambivalenza di fronte all’eccesso di informazioni, il significato culturale dell’IA rimane sovrastimato. Intrappolata in questo circolo vizioso, l’intera cultura dell’analisi dei dati sembra incapace di giungere a una conclusione, contribuendo ulteriormente al senso di alienazione delle persone.
Sebbene trasformare il mondo in un vasto motore di predizione possa sembrare una strategia robusta per combattere le paure indotte dalla sovrabbondanza di informazioni e dal dominio delle grandi aziende tecnologiche, questa ricerca è costantemente oscurata dalla fugace consapevolezza che la vita sociale è intrinsecamente intrecciata con un’incertezza senza fine.
Le considerazioni etiche saranno sicuramente al centro della discussione quando il Papa parteciperà al vertice del G7. Come conciliare l’efficacia e l’etica dell’IA ci chiama tutti a gestire ingredienti cruciali della condizione umana in un’epoca in cui le persone si stanno sempre più integrando con le macchine intelligenti. Ma accanto all’etica ci sono le sabbie mobili della socialità, e forse questo è il momento culturale in cui la società può chiedersi perché le persone siano tanto affascinate quanto ispirate dall’esternalizzazione del proprio processo decisionale alle macchine intelligenti.
Immagine: Foto di Niklas Hamann su Unsplash

