Cosa dovremmo aspettarci dalle tecnologie basate sui dati? È ragionevole chiedere spiegazioni o dovremmo accettare che i dati — e i sistemi costruiti su di essi — semplicemente non rispondano alle nostre domande? Fino a poco tempo fa, dare un senso ai risultati prodotti da sistemi di intelligenza artificiale (IA) non era particolarmente difficile: non perché fossimo più bravi a farlo, ma perché i sistemi stessi erano ancora relativamente semplici. Oggi invece sistemi di IA complessi e sofisticati sono incorporati in una vasta gamma di processi decisionali. Alcuni esempi sono la selezione dei curriculum vitae da considerare per una certa posizione (Deshpande et al., 2020), oppure l’analisi di scansioni mediche (Al-Antari, 2023), o ancora la decisione di chi può ottenere un prestito (Purificato et al., 2023). Ed è proprio in questi casi che le cose si complicano.
Quando le decisioni automatiche diventano opache
Immaginate una rete neurale – un sistema statistico complesso, opaco, addestrato su enormi basi di dati – che rifiuta automaticamente la vostra richiesta per un prestito. Potreste essere tentati di chiedere una spiegazione al sistema – secondo le leggi dell’Unione Europea, ricevere una spiegazione è un vostro diritto (Casey et al., 2019). Tuttavia, ciò che ricevete in risposta potrebbe essere matematicamente corretto, ma non essere soddisfacente; per noi esseri umani è importante capire il senso di ciò che accade, al di là delle spiegazioni causali.
Capire il come e il perché delle decisioni
Ed è proprio in questo spazio – tra la causalità e il senso – che opera la disciplina nota come Explainable AI (XAI). Nella letteratura di questa disciplina due concetti emergono come fondamentali: interpretabilità e spiegabilità. La distinzione è sottile ma importante. L’interpretabilità si occupa di capire come il sistema sia arrivato alla sua decisione – ad esempio, quali caratteristiche nei dati di input hanno avuto più peso per raggiungere un certo risultato. La spiegabilità, invece, riguarda il perché il sistema abbia preso quella decisione – una domanda più vicina a quelle che tipicamente poniamo ad altri esseri umani quando vogliamo dare un senso a ciò che accade.
Per le nuove, enormi, tecnologie basate sui big data, rispondere al come è già difficile, il perché è ancora più sfuggente.

I limiti delle spiegazioni tecniche
Le domande sul perché sono sempre insidiose: dipendono dal contesto, dalle competenze delle persone coinvolte, dalla posta in gioco. Ad esempio, una spiegazione soddisfacente per un ingegnere informatico può sembrare incomprensibile a chi non conosce il machine learning. E a seconda di quanto è importante l’evento di cui chiediamo il perché, i nostri standard su cosa costituisce una buona spiegazione cambiano drasticamente. Ad esempio, potrebbe essere che il vostro nuovo smartwatch non registri correttamente quanti kilometri avete appena corso e volete sapere come mai. In questo caso, una breve giustificazione tecnica potrebbe essere sufficiente, senza necessità di approfondire ulteriormente. Ora immaginate invece il caso in cui un medico digitale, dopo avervi visitato, liquidi i vostri sintomi con un vago riferimento allo “stress”: qui, una stringata spiegazione tecnica sarebbe inadeguata. Davanti a una cosa importante come capire i motivi di problemi di salute, serve una spiegazione dettagliata e approfondita di come il medico è giunto alla sua diagnosi.
Serve un cambio di prospettiva
Qual è quindi la soluzione proposta dalla disciplina della XAI per questi casi? Purtroppo, non sembra esserci una soluzione condivisa – anzi, anche la terminologia e le definizioni stesse sembrano essere ancora fonte di dibattito. Allora, forse, si può pensare di affrontare il problema in un altro modo. Innanzitutto, è necessario riconoscere che le reti neurali artificiali non sono esseri umani: non pensano in alcun senso familiare del termine. Edsger Dijkstra (1984) lo ha espresso eloquentemente: chiedersi se un sistema di IA pensa è come chiedersi se un sottomarino nuota. Naturalmente, questo non invalida la necessità di una comprensione tecnica di questi sistemi per finalità di debugging e avanzamento tecnologico. Ma forse dovremmo abbandonare l’aspettativa di ricevere spiegazioni che abbiano senso in termini umani. Se vogliamo evitare di rimanere intrappolati in un labirinto di concetti vagamente definiti e aspettative eccessive che popolano il dibattito in XAI, forse la filosofia della scienza può offrirci una via d’uscita. Proprio come il filo rosso di Arianna nel Labirinto di Cnosso, il lavoro portato avanti dai filosofi della scienza può aiutarci a orientarci in questo caos.
La filosofia della scienza si confronta da tempo con i limiti dei modelli, con il modo in cui la conoscenza è situata in pratiche specifiche e con la responsabilità insita nelle pratiche scientifiche. Questo bagaglio concettuale potrebbe essere più utile che provare ad estrarre – o molto spesso, aggiungere a posteriori – spiegazioni a dei modelli che non sono stati progettati per fornirle. Dopotutto, i modelli di IA condividono diverse caratteristiche epistemiche con quelli scientifici (Fleisher, 2022). Sono anch’essi modelli di astrazione, idealizzazione e semplificazione costruiti per rappresentare fenomeni complessi. Inquadrare la questione in questo modo sposta il focus dal sistema alle pratiche. Invece di aspettarci che il modello si spieghi da solo, potremmo chiederci se le pratiche di modellizzazione che lo hanno strutturato siano epistemicamente solide. I dati scelti per addestrare il sistema sono rappresentativi? Chi decide quali dati selezionare e perché? Queste sono domande non per l’algoritmo, ma per gli esseri umani che lo costruiscono, implementano e modellano.

Etica e IA: una questione di responsabilità
Altrimenti, se trattiamo le spiegazioni come un’aggiunta, uno strato che arriva solo dopo lo sviluppo tecnico, il rischio è che gli sviluppatori si comportino come se le preoccupazioni etiche appartengano a qualcun altro – agli utenti finali oppure ai responsabili della conformità dei prodotti (Leonelli, 2016). Invece, l’analisi etica dovrebbe essere integrata nelle pratiche di lavorazione dei dati fin dall’inizio (Leonelli et al., 2017), non come un elenco di punti da svolgere o l’aderenza uno schema precostituito di conformità, ma come parte integrante di cosa significhi sviluppare un buon modello. In questo senso, le buone pratiche epistemiche sono pratiche etiche. E la filosofia della scienza può aiutarci a chiarire cosa significhi “buono” – non in astratto, ma nei contesti pratici e complessi in cui questi sistemi oggi operano.
Bibliografia:
Al-Antari, M. A. (2023). Artificial intelligence for medical diagnostics—Existing and future AI technology! Diagnostics, 13(4), 688.
Casey, B., Farhangi, A., & Vogl, R. (2019). Rethinking explainable machines: The GDPR’s right to explanation debate and the rise of algorithmic audits in enterprise. Berkeley Technology Law Journal, 34(1), 143.
Deshpande, K. V., Pan, S., & Foulds, J. R. (2020, July). Mitigating demographic Bias in AI-based resume filtering. In Adjunct publication of the 28th ACM conference on user modeling, adaptation and personalization (pp. 268-275).
Dijkstra, E.W. (1984) ‘The threats to computing science’. https://hdl.handle.net/2152/129821 (Accessed: 4 June 2025).
Fleisher, W. (2022). Understanding, Idealization, and Explainable AI. Episteme, 19(4), 534–560.
Leonelli, S. (2009). The impure nature of biological knowledge and the practice of understanding. Philosophical Perspectives on Scientific Understanding, 189–209.
Leonelli, S., Rappert, B., & Davies, G. (2017). Data Shadows: Knowledge, Openness, and Absence. Science, Technology, & Human Values, 42(2), 191–202.
Mittelstadt, B., Russell, C., & Wachter, S. (2019). Explaining Explanations in AI. Proceedings of the Conference on Fairness, Accountability, and Transparency, 279–288.Purificato, E., Lorenzo, F., Fallucchi, F., & De Luca, E. W. (2023). The use of responsible artificial intelligence techniques in the context of loan approval processes. International Journal of Human–Computer Interaction, 39(7), 1543-1562.
Nota:
Una versione precedente di questo contributo è apparsa in lingua inglese con il titolo “Should we expect AI to be explainable?”, pubblicata il 4 giugno 2025 su Ethical Data Initiative: https://ethicaldatainitiative.org/2025/06/04/should-we-expect-ai-to-be-explainable/
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

