• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’Intelligenza Artificiale non ha paura del caos

Che il mondo sia più imprevedibile di quanto desideriamo, lo verifichiamo tutte le volte che, partiti per il weekend, scopriamo che le previsioni del tempo sono… sbagliate.

Dalla nascita dell’Intelligenza Artificiale (IA) nell’estate del 1956 al Dartmouth College, nella città di Hanover, nel New Hampshire (Stati Uniti d’America), i ricercatori dell’IA si sono focalizzati per decenni sull’idea di costruire macchine capaci di imitare l’intelligenza umana. All’inizio l’approccio per raggiungere l’obiettivo era di codificare in un programma i modelli costruiti per spiegare il funzionamento delle nostre capacità mentali. Ad esempio, per creare macchine intelligenti si sono utilizzate le stesse regole della logica in cui si articola il nostro pensiero. Nonostante negli anni si siano raggiunti molti risultati scientifici, questa metodologia non ha portato ai successi sperati, culminando in lunghi periodi di stasi conosciuti come “inverni dell’IA”.

Le leggi della scienza

L’approccio nel costruire «modelli della realtà» è ispirato all’idea base della scienza moderna che spiega i fenomeni del mondo (nel caso dell’IA, la nostra mente) e fa previsioni (replicare il comportamento intelligente) scoprendo e studiando le leggi che li regolano.

Dal 1600, l’avvento della scienza moderna ha mostrato che è possibile utilizzare leggi e modelli matematici per spiegare il mondo della fisica e fare previsioni. «L’Universo è scritto nella lingua della matematica», diceva Galileo Galilei nel suo «Saggiatore» del 1623: dove non arrivano i simboli della matematica «è un aggirarsi vanamente per un oscuro labirinto», immagine quasi da Inferno dantesco.

Il metodo scientifico, mezzo secolo dopo Galileo, raggiunge la sua maturità con il grande matematico e fisico inglese Isaac Newton nei suoi «Principia mathematica philosophiae naturalis» del 1687: la legge di gravitazione universale spiega ad un tempo il moto di caduta verso terra dell’anedottica mela (la mela cadde, forse non in testa, a Woolsthorpe Manor, da un albero che ancora oggi è conservato nel villaggio del Lincolnshire, in Inghilterra) e il moto circolare degli astri, ritenuti ancora qualche decennio prima «corpi celesti», cioè di natura quasi divina, e da quel momento ridotti a ‘pietre rotolanti’ nello spazio.

Ma da genio quale era, Newton capisce anche che il mondo non è totalmente paragonabile al meccanismo di un orologio, come sosterranno pochi decenni dopo i veri meccanicisti. Il Marchese Laplace, ad esempio, esprimerà questa visione deterministica attraverso l’esperimento mentale del famoso «demone», che ha preso il suo nome: gli esseri umani non riescono a prevedere tutto con le leggi della fisica, ma solo perché ignorano le condizioni iniziali di ogni elemento. Un’intelligenza superiore – il demone, appunto -, che conoscesse la posizione, la velocità di ogni corpo e le forze che agiscono su di esso, potrebbe spiegare sia tutto il passato che prevedere l’intero futuro.

Dall’alchimia all’imprevedibilità

Per Newton la visione interamente meccanicista è sbagliata prima di tutto perché incompatibile con la sua visione teologica, l’idea cioè che la natura non sia autosufficiente e che non possa fare a meno di Dio. Pochi sanno, perché fu lo stesso Newton a mantenere il massimo riserbo, che durante tutta la vita si dedicò non solo alla scienza ma anche a studi di teologia (i suoi scritti religiosi sono stati messi all’asta dagli eredi nel 1936, poi donati alla Biblioteca Nazionale di Israele), storia sacra e alchimia. L’economista John Maynard Keynes, che acquistò parte degli scritti, non a caso, lo definì «l’ultimo degli alchimisti».

Newton aveva capito che l’Universo, anche se fosse stato regolato interamente da leggi semplici, sarebbe stato difficile da prevedere. L’intuizione della difficoltà del problema spiega il rifiuto nell’aiutare l’astronomo inglese Edmund Halley, mentore e finanziatore, nel calcolare l’orbita dell’omonima cometa, apparsa pochi anni prima, per cercare di prevederne il ritorno.

A Newton era chiara la difficoltà nel dover ricalcolare l’orbita ad ogni spostamento della cometa, perché influenzata nel suo percorso non solo dalla massa dal sole, ma anche da quella dei pianeti a cui passa vicino, pianeti che si muovono a loro volta attorno al sole e, quindi, la loro influenza sulla cometa cambia di conseguenza.

Oggi questo tipo di calcoli si possono fare con i supercomputer. Newton, però, aveva già intuito che c’era un ulteriore livello di complessità, che rende difficile spiegare e predire l’universo con un modello matematico o da simulare anche con l’aiuto di un calcolatore.

Il problema dei tre corpi

Negli scritti di Newton troviamo già traccia di quello che alcuni secoli dopo verrà chiamato «il problema dei tre corpi». Il termine è oggi popolare grazie a una serie tratta dall’omonimo romanzo di fantascienza del cinese Liu Cixin: una specie aliena è costretta a emigrare verso la Terra perché il suo pianeta orbita attorno a un sistema composto da tre soli e questa combinazione rende totalmente imprevedibile calcolarne l’orbita e, quindi, quella del pianeta e il susseguirsi delle stagioni.

Il problema dei tre corpi è un caso particolare di «sistema caotico», concetto studiato dal matematico e meteorologo Edward Lorenz. L’uomo vive circondato da molti fenomeni che possono essere descritti come «sistemi caotici»: il meteo (siamo appunto partiti da quello), il cambiamento climatico, il corpo umano[1], le popolazioni biologiche, gli ecosistemi, il traffico, il sistema economico finanziario, ecc.

Un sistema caotico è caratterizzato principalmente dal fatto che una minima (piccola a piacere) differenza dello stato iniziale porta dopo un certo orizzonte temporale all’evoluzione del sistema verso esiti completamente diversi ad altre scale più grandi, con effetti non proporzionali alla differenza di condizioni iniziali. Questa proprietà – dipendenza sensibile dalle condizioni iniziali – è descritta da Lorenz con una celeberrima metafora: «Può il battito di ali di una farfalla in Brasile scatenare un tornado in Texas?». Certo che no, ma la frase rende bene l’idea della sproporzione che può esistere fra cause ed effetti in un sistema caotico e che tutto influisce su tutto.

Come riconoscere un sistema caotico e complesso

Come faccio a sapere se un sistema è caotico? Deve essere caratterizzato da tre condizioni:

  • Agenti o influenze multipli: più agenti o fattori che interagiscono tra loro influenzano gli esiti.
  • Agenti adattabili: gli agenti nel sistema devono essere in grado di adattarsi alle circostanze esterne, di cambiare i loro comportamenti con i cambiamenti nel loro ambiente.
  • Informazioni localizzate: gli agenti devono considerare solo informazioni locali (non conoscono informazioni sull’intero sistema) mentre prendono le loro decisioni.

Quest’ultimo è il motivo per cui gli scacchi sono complessi, ma non caotici.

Pensate ai sistemi composti dalle cellule che formano il nostro corpo, ai veicoli nel traffico, agli agenti di borsa, ecc.

La teoria del caos è strettamente legata alla teoria dei sistemi complessi. I sistemi complessi sono composti da molte parti interconnesse che interagiscono in modi non lineari, mostrano comportamenti emergenti che non possono essere facilmente previsti dalle proprietà dei singoli componenti e sviluppano spontaneamente una struttura o un comportamento ordinato senza un controllo esterno centralizzato.

L’intelligenza artificiale riesce a fare previsioni nei sistemi caotici e complessi

Finora noi esseri umani ci eravamo rassegnati a non poter prevedere tutto con i nostri modelli matematici, sapevamo che al massimo potevamo fare simulazioni approssimate ma solo fino ad un certo orizzonte temporale, come accade con le previsioni del tempo che sono affidabili solo per pochi giorni.

Invece negli ultimi anni i nuovi sviluppi dell’IA hanno fatto emergere un altro paradigma, il cosiddetto machine learning, l’apprendimento automatico. I sistemi di machine learning – e, in particolare, quelli che usano l’apprendimento profondo, il deep learning – apprendono a classificare o a generare informazioni partendo solamente da esempi, in grande quantità, e senza richiedere che venga codificata a mano in un programma la nostra conoscenza, come invece avveniva nel paradigma precedente dell’IA.

E questo nuovo approccio inizia a mostrare una capacità migliore della nostra di fare previsioni nei sistemi caotici e complessi. Abbiamo adesso un nuovo attore in grado non solo risolvere il problema dei tre corpi[2], ma, di recente, anche di fare previsioni in ambiti di forte impatto, come il meteo e la salute.

GraphCast fa le previsioni meteo senza sapere cosa sia la pioggia

Google Deepmind, nel novembre 2023, ha presentato il sistema di IA chiamato GraphCast che, se non riesce ancora a tenere conto dei battiti di ala delle farfalle, «prevede centinaia di variabili meteorologiche per i prossimi 10 giorni con una risoluzione di 0,25° a livello globale in meno di 1 minuto. GraphCast supera significativamente le prestazioni dei sistemi deterministici operativi più accurati sul 90% dei 1.380 obiettivi di verifica e le sue previsioni supportano una migliore previsione di eventi gravi, incluso il monitoraggio dei cicloni tropicali, i fiumi atmosferici e le temperature estreme»[3].

Immagine dall’articolo [3]

È necessario, però, fare attenzione: essendo basato sulla tecnologia del deep learning, GraphCast fa le previsioni del tempo senza conoscere cosa siano «sole», «nuvole», «pioggia», «mari» o «monti», e senza conoscere le leggi fisiche della meteorologia. GraphCast lavora sulle serie storiche: in circa un mese impara a fare previsioni analizzando le serie storiche di alcuni decenni delle diverse variabili meteorologiche in tutto il globo terrestre: temperatura, pressione, umidità, precipitazioni, ecc. Ad oggi, le previsioni del tempo vengono fatte, ad es., nell’European Centre for Medium-Range Weather Forecasts (ECMWF) di Bologna da decine tra i migliori fisici mondiali, che costruiscono un modello matematico della Terra fatto girare per ore su un supercomputer; GraphCast riesce invece a fare le previsioni in un minuto con una sola TPU (un tipo di processore utilizzato per l’IA).

Immagine presa dal sito Isomorphic Labs

Sempre Google Deepmind con Isomorphic Labs l’8 maggio scorso[4] ha presentato AlphaFold 3, un sistema di deep learning che non solo predice la struttura di proteine, DNA e RNA, ma anche le loro interazioni con una accuratezza del 50% migliore rispetto ai sistemi esistenti. Questi fenomeni sono ulteriori esempi di sistemi complessi e AlphaFold 3 apre nuove prospettive sulla comprensione dei meccanismi alla base della vita e sull’individuazione di nuovi principi farmacologici.

Fuori dal labirinto oscuro?

Questi successi, però, ci dicono che poter fare previsioni migliori sui fenomeni caotici e nei sistemi complessi ha un costo: rinunciare alla possibilità di comprendere come viene fatta la previsione. Per anni il machine learning, l’apprendimento automatico che è alla base dell’attuale ‘primavera dell’IA’, è stato criticato per essere un black box, cioè un modello non trasparente, che non si può analizzare per spiegare come ha preso una decisione o ha classificato un certo caso o fatto una determinata previsione.

Paradossalmente comincia ad emergere che, oltre al fatto che è impossibile dare spiegazioni nei sistemi caotici e complessi, non è neanche necessario farlo per fare previsioni. In tali sistemi, infatti, non si possono fare previsioni tramite modelli matematici, ma solo tramite approssimazioni o simulazioni. Anziché tentare di «abbracciare la complessità del mondo che va oltre la comprensione umana»[5], gli esseri umani hanno finora cercato di ridurla, mentre questa complessità supera di gran lunga le leggi e i modelli che l’uomo inventa per spiegare l’universo, modelli formati da leggi e regole locali semplificate.

Sia i modelli tradizionali che quelli creati dal machine learning sono rappresentazioni del mondo: il primo tipo è una rappresentazione che abbiamo creato basandoci sulla nostra comprensione; il secondo tipo di modelli è generato da una macchina che abbiamo creato: al confronto di quelli precedenti, questi nuovi modelli hanno una scala, contenuti e una struttura incommensurabili,ma sono modelli difficili se non impossibili da esplorare.

Prevedibilità senza spiegabilità

Nessuno ancora sa spiegare perché la tecnologia deep neural network, alla base dell’apprendimento automatico moderno, riesca a cogliere i battiti di ali di farfalla nei fenomeni caotici e le complessità dei sistemi complessi.

Deep learning significa avere una rete neurale con una struttura a molti livelli, e questa profondità permette alla rete di apprendere una gerarchia di caratteristiche, dalle astrazioni a basso livello a quelle ad alto livello, di modellare le molteplici scale di interazione presenti nei sistemi complessi.  Sistemi di deep learning come i transformers (alla base dei Large Language Model) utilizzano meccanismi di auto-attenzione per valutare l’importanza delle diverse parti della sequenza di input (le parole del testo), catturando dipendenze a prescindere dalla loro distanza. Questo li rende altamente efficaci per compiti come il modellamento del linguaggio, la traduzione e la previsione di sequenze complesse.

Ma è possibile che sia anche la dimensione enorme di questi sistemi (composti da centinaia di miliardi se non trilioni di parametri) a permettere di identificare più relazioni sottostanti nei dati, analizzando molti più dati su una scala molto più ampia di quanto possiamo fare noi – costretti nelle nostre aspettative di come i dati debbano essere collegati fra loro -, cogliendo invece interdipendenze più complesse. Sistemi di tale taglia possono creare così approssimazioni migliori, catturare schemi intricati, le dipendenze e caratteristiche ad alta dimensionalità dei sistemi complessi.

Stiamo uscendo dal labirinto, ma rimaniamo nell’oscurità dell’assenza di spiegazioni.


[1] Anastasia Korolj, Hau-Tieng Wu, e Milica Radisic. A Healthy Dose of Chaos: Using fractal frameworks for engineering higher-fidelity biomedical systems. Biomaterials (2019).

[2] A neural net solves the three-body problem 100 million times faster
Machine learning provides an entirely new way to tackle one of the classic problems of applied mathematics. 26/10/2019. MIT Technology Review.

[3] Remi Lam et al. ,Learning skillful medium-range global weather forecasting.Science382,1416-1421(2023)

[4] Abramson, J., Adler, J., Dunger, J. et al. Accurate structure prediction of biomolecular interactions with AlphaFold 3. Nature (2024).

[5] David Weinberger. Everyday Chaos. Harvard Business Review Press. 2019.

Esplora altri articoli su questi temi