• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine - L’Intelligenza Artificiale è più di quello che appare

Palma Sgreccia – Redattrice Punti di Vista

Palma Sgreccia è redattrice della sezione Punti di Vista di MagIA, collabora inoltre come content creator per la sezione Academia.

Docente di Filosofia Morale e Bioetica presso il Master in Bioetica, Pluralismo e Consulenza Etica all’Università di Torino, dove riveste anche il ruolo di Vicedirettrice. È laureata in Filosofia presso la Libera Università SS.ma Maria Assunta (LUMSA) e ha conseguito un Dottorato di Ricerca in Bioetica all’Università Cattolica del Sacro Cuore. Inoltre, possiede un’Abilitazione Scientifica in Filosofia Morale (II Fascia).

Parallelamente, è docente di Bioetica presso l’Università San Tommaso di Roma e tiene corsi di Bioethics. Collabora con diversi gruppi di ricerca e partecipa attivamente a conferenze e seminari specializzati.

Leggi tutti i contenuti di Palma Sgreccia per MagIA.

L’intelligenza artificiale e (è?) il talismano

L’intelligenza artificiale e (è?) il talismano

Potente sì, oracolo no: quando l’IA diventa talismano perdiamo senso e diritti. Mettiamo al centro persone e responsabilità.
Carta Etica di Urbino: IA, salute, ambiente e lavoro

Carta Etica di Urbino: IA, salute, ambiente e lavoro

Governare, non subire: la Carta di Urbino orienta l’IA per salute, ambiente e lavoro con decisioni trasparenti, controllo umano ed equità.
Per una econom-IA etica

Per una econom-IA etica

Tecnica ed economia non sono neutrali: l’IA apre il confronto tra riduzionismo e centralità della persona.
CoscienzIA: l’obiezione morale al tempo dell’automazione

CoscienzIA: l’obiezione morale al tempo dell’automazione

L’obiezione di coscienza, da rifiuto della guerra a difesa della responsabilità nell’era dell’automazione: il “no” etico come presidio di libertà e pace.
Far uscire la mosca dalla bottiglia: libertà e intelligenza artificiale

Far uscire la mosca dalla bottiglia: libertà e intelligenza artificiale

La filosofia, dice Wittgenstein, serve a farci uscire da gabbie concettuali; nell’era dell’IA tutela la nostra libertà dalla tirannia del calcolo.
“Intimior intimo meo”: interiorità e coscienza nell’era artificiale

“Intimior intimo meo”: interiorità e coscienza nell’era artificiale

L’IA semplifica. La coscienza, invece, complica — ed è lì che abita ancora l’umano.
Dalla verità alla configurazione: Kafka nell’epoca dell’Intelligenza Artificiale

Dalla verità alla configurazione: Kafka nell’epoca dell’Intelligenza Artificiale

Nell’era dell’IA, la verità si trasforma in configurazione. Da Pareyson a Kafka, una riflessione sulle forme della verità e sul senso che rischiamo di perdere.
L’algoritmo e il Grande Inquisitore: libertà nell’era digitale

L’algoritmo e il Grande Inquisitore: libertà nell’era digitale

L’IA promette pane e ordine, ma a costo della libertà. Come il Grande Inquisitore, rischia di disabituarci al giudizio. Serve un’etica della responsabilità.
Métron e Métrion: chiavi per pensare l’Intelligenza Artificiale

Métron e Métrion: chiavi per pensare l’Intelligenza Artificiale

Platone distingue métron (misura oggettiva) e métrion (misura contestuale, adeguatezza all’esperienza). L’IA eccelle nel primo ma non accede al secondo, simulando senza comprensione.
L’età assiale dell’Intelligenza Artificiale

L’età assiale dell’Intelligenza Artificiale

L’IA, come i carri dell’età assiale, può trasformare profondamente la società, ma solo se orientata da principi etici che salvaguardino la creatività, l’interiorità e il valore umano.
IA-etica “su palafitte”: una proposta per l’epoca dell’Intelligenza Artificiale

IA-etica “su palafitte”: una proposta per l’epoca dell’Intelligenza Artificiale

L’IA-etica 'su palafitte' rappresenta un approccio etico flessibile, frutto di un impegno collettivo e interdisciplinare, volto a gestire le sfide dell’Intelligenza Artificiale. Basata su principi di beneficenza, giustizia, libertà, conoscenza e trasparenza, questa etica cerca di garantire che l’IA rimanga uno strumento al servizio del bene comune. La collaborazione tra diverse discipline è essenziale per costruire un sistema equo e responsabile, in grado di adattarsi alla complessità del mondo contemporaneo.
Artificiali, ma Morali

Artificiali, ma Morali

L'articolo esamina il delicato equilibrio nelle interazioni tra umani e IA, evidenziando le distinzioni cognitive e la responsabilità morale condivisa nell'era dell'IA, con un approfondimento sul ruolo degli agenti IA come soggetti etici in contesti sociali complessi.
L’Intelligenza Artificiale Morale

L’Intelligenza Artificiale Morale

Il concetto e le sfide dell'Intelligenza Artificiale Morale emergono in un'analisi che esplora la capacità dell'IA attuale di emulare decisioni etiche, i limiti intrinseci a questo approccio, e le prospettive future per lo sviluppo di sistemi IA in grado di collaborare eticamente con l'umanità, nel rispetto di principi morali fondamentali.
La salute come bussola per l’intelligenza artificiale

La salute come bussola per l’intelligenza artificiale

L'articolo esplora l'uso dell'IA nel campo sanitario, sottolineando come il suo apprendimento basato sui dati e ancorato a principi etici e diritti umani possa servire da esempio per un'evoluzione etica e un impiego responsabile dell'IA in diversi settori.
Il rischio delle “persone contraffatte” nella sanità e nella società

Il rischio delle “persone contraffatte” nella sanità e nella società

Con l'intelligenza artificiale, che sfuma sempre più i confini tra realtà e riproduzione digitale, emergono sfide etiche significative per il settore sanitario e per la società.
L’intelligenza artificiale può gestire il consenso informato in medicina?

L’intelligenza artificiale può gestire il consenso informato in medicina?

L’articolo esplora la possibilità di delegare la procedura del consenso informato in medicina a un'intelligenza artificiale conversazionale, "Consent-GPT", progettata per guidare i pazienti nel processo di consenso informato per procedure mediche o chirurgiche.
Il dilemma etico delle Voci AI dei bambini uccisi

Il dilemma etico delle Voci AI dei bambini uccisi

Genitori di bambini vittime della violenza armata, spinti dal voler bloccare la diffusione incontrollata delle armi negli USA, hanno utilizzato l'intelligenza artificiale per ricreare le voci dei loro figli scomparsi. Questo progetto emerge in un contesto americano dove il dibattito sul controllo delle armi è fortemente polarizzato, riflettendo la profonda divisione nella società statunitense riguardo alla regolamentazione delle armi da fuoco e al diritto costituzionale di possederle.
L’AI non combatte la solitudine

L’AI non combatte la solitudine

Anna Mae Duane affronta il problema della solitudine negli Stati Uniti, paragonando i suoi effetti nocivi a quelli di fumare 15 sigarette al giorno. Questa situazione non solo danneggia la salute individuale ma minaccia anche la democrazia, per la quale è fondamentale il senso di connessione tra i cittadini. Le aziende tecnologiche propongono l'utilizzo di chatbot intelligenti come rimedio alla solitudine, mentre Duane sottolinea che affidarsi soltanto alla tecnologia non è adeguato.
Sam Altman e l’Intelligenza Artificiale Generale

Sam Altman e l’Intelligenza Artificiale Generale

L'Intelligenza Artificiale Generale rappresenta un passo evolutivo nell'ambito dell'intelligenza artificiale, che punta a simulare o addirittura superare le capacità cognitive umane. Questa forma di AI si distingue per la sua versatilità e adattabilità, con l'abilità di apprendere da contesti vari e di rispondere a situazioni in maniera analoga a quella di un essere umano.
Il lungotermismo: la filosofia della Silicon Valley

Il lungotermismo: la filosofia della Silicon Valley

Il lungotermismo si concentra su progetti ambiziosi come la colonizzazione dello spazio o lo sviluppo di intelligenza artificiale avanzata, tende a favorire una ristretta élite che ha le risorse e le capacità per investire in queste iniziative a lungo termine. Questo crea una disparità dove il benessere e le prospettive future delle élite tecnologiche e finanziarie vengono valorizzati più delle esigenze immediate della maggior parte della popolazione mondiale.
AI e Partecipazione Pubblica

AI e Partecipazione Pubblica

L'articolo solleva questioni fondamentali nel campo dell'AI che richiedono attenzione e azione: la necessità di maggiore trasparenza e coinvolgimento pubblico nelle decisioni; l’importanza di bilanciare benefici e rischi dell'AI, innovazione e responsabilità sociale; la responsabilità nell'uso dell'AI che pone in rilievo la necessità di chiare linee guida e regolamenti per garantire che sviluppatori e aziende siano tenuti responsabili per eventuali danni causati dai loro sistemi. L’autrice enfatizza l'importanza di un approccio inclusivo e partecipativo nello sviluppo di un quadro di AI che sia responsabile, trasparente e centrato sul benessere delle persone e delle comunità.
L’AI ha sostituito Dio e la Religione?

L’AI ha sostituito Dio e la Religione?

Questi lavori rivelano come l'automazione e l'AI stiano trasformando non solo il nostro approccio al lavoro e alla vita quotidiana, ma anche le nostre percezioni di religione e morale. A differenza delle scienze tradizionali, l'AI è vista come una forza che trascende i limiti umani e naturali.
ChatGPT: il Cupido Digitale

ChatGPT: il Cupido Digitale

La storia del giovane russo che, grazie a ChatGPT, trova l'amore, suscita un sorriso, ma invita anche a una riflessione critica sui potenziali rischi associati a questa pratica. È importante considerare la possibilità che chatbot addestrati possano essere usati per ingannare, aprendo la strada a individui malintenzionati che potrebbero sfruttare questa tecnologia per scopi illeciti o dannosi. Questa situazione sottolinea la necessità di una maggiore consapevolezza e cautela nell'uso dell'intelligenza artificiale nelle interazioni sociali.
Neuralink di Elon Musk: appello della comunità scientifica per maggiore trasparenza

Neuralink di Elon Musk: appello della comunità scientifica per maggiore trasparenza

Il progetto Neuralink punta a rivoluzionare la vita delle persone con gravi disabilità motorie, offrendo loro la possibilità di controllare dispositivi elettronici mediante il pensiero. Tuttavia, l'articolo dpone in risalto non solo l'entusiasmo suscitato da tale innovazione ma anche le serie preoccupazioni espresse dalla comunità scientifica, legate all'assenza di trasparenza.
Una “dieta digitale sana” contro la misogenia

Una “dieta digitale sana” contro la misogenia

L'articolo presenta una ricerca sull'impatto degli algoritmi dei social media, soprattutto TikTok, nel promuovere contenuti misogini. La ricerca, effettuata da team dell'University College London e dell'Università del Kent, ha monitorato l'evoluzione dei contenuti suggeriti da TikTok, rilevando un incremento quattro volte maggiore di video con tematiche misogine in un arco di cinque giorni. Questo aumento evidenzia una tendenza allarmante non solo online, ma anche nel comportamento reale dei giovani, specialmente negli ambienti scolastici.
6 Febbraio: “Safer Internet Day”

6 Febbraio: “Safer Internet Day”

Il Safer Internet Day, che si tiene il 6 febbraio 2024, è un evento importante per aumentare la consapevolezza sull'uso sicuro e responsabile di internet, soprattutto tra i giovani. Promossa dall'Unione Europea, questa giornata affronta le sfide legate all'aumento della digitalizzazione nella vita dei minori.
Intelligenza artificiale e lavoro umano

Intelligenza artificiale e lavoro umano

L'articolo discute il ruolo dell'intelligenza artificiale (AI) nell'economia e il suo impatto sul lavoro. Gli autori sottolineano la necessità che l'AI supporti il lavoro umano, anziché sostituirlo, per garantire una prosperità condivisa. Esaminano le aspettative ottimistiche sulla crescita produttiva dell'AI e la realtà storica, che spesso mostra un diverso esito.
Facebook: guadagni in crescita, etica sotto esame

Facebook: guadagni in crescita, etica sotto esame

L'articolo esprime una critica pungente nei confronti di Mark Zuckerberg, CEO di Facebook, e delle sue recenti scuse al Congresso. Cadwalladr evidenzia come le scuse di Zuckerberg appaiano vuote di fronte ai gravi problemi associati a Facebook, che comprendono rischi per la sicurezza dei bambini e adolescenti e l'influenza manipolativa sulla politica mondiale. L'autrice sottolinea la mancanza di una risposta legislativa adeguata a tali problemi e come, nonostante le critiche, Facebook continui a prosperare economicamente.
Intelligenza Artificiale Biologica

Intelligenza Artificiale Biologica

L'articolo discute come l'intelligenza e la capacità di risolvere problemi non siano prerogative esclusive di organismi dotati di cervelli complessi, ampliando così la nostra comprensione dell'intelligenza stessa.
Tecnologia Cervello-Computer: la sfida tra Elon Musk e la Cina

Tecnologia Cervello-Computer: la sfida tra Elon Musk e la Cina

L'articolo esplora la crescente competizione nel campo delle interfacce cervello-computer, mettendo a confronto gli sforzi di Neuralink, l'ambiziosa azienda di Elon Musk, e quelli della Cina. In questa corsa tecnologica l’obiettivo sembra essere quello di integrare la tecnologia degli smartphone direttamente nel cervello umano.
Contrastare i deepfake pornografici

Contrastare i deepfake pornografici

Il fenomeno dei deepfake è stato facilitato dall'avanzamento dell'AI generativa e ha portato a un aumento di immagini e video pornografici creati senza consenso, colpendo soprattutto le donne. L'articolo sottolinea l'importanza di un approccio combinato che includa sia soluzioni tecniche che normative per combattere efficacemente i deepfake pornografici non consensuali.
Telepatia di Neuralink: l’interfaccia wireless cervello-computer

Telepatia di Neuralink: l’interfaccia wireless cervello-computer

L'esperimento ha visto l'utilizzo di un robot per posizionare chirurgicamente 64 fili estremamente sottili, più fini di un capello umano, in una parte specifica del cervello che gestisce l'"intenzione di movimento". Questi fili, fondamentali per il funzionamento del dispositivo, sono progettati per ridurre al minimo il danno al tessuto cerebrale e per consentire un posizionamento preciso. Il chip impiantato, alimentato da una batteria ricaricabile senza fili, registra e trasmette i segnali cerebrali. Questi segnali vengono poi interpretati da un'app, che decodifica come la persona intende muoversi. I risultati iniziali hanno mostrato promettenti attivazioni neuronali, con il paziente che sta recuperando dall’intervento.
Gen AI e Copyright: una sfida che trascende il legale

Gen AI e Copyright: una sfida che trascende il legale

La causa legale intrapresa dal New York Times contro OpenAI ha evidenziato che ChatGPT, il modello di AI sviluppato da OpenAI, produce testi notevolmente simili a quelli del NYT. Questo episodio ha catalizzato un dibattito significativo che si estende ben oltre le questioni legali e coinvolge sia l'input dei dati, ovvero il materiale utilizzato per addestrare i modelli di AI, sia l'output dei dati, cioè i contenuti generati dall'AI stessa.
Intelligenza Artificiale e Equità Globale: Il monito della WHO per la Sanità nei Paesi Emergenti

Intelligenza Artificiale e Equità Globale: Il monito della WHO per la Sanità nei Paesi Emergenti

La principale preoccupazione della WHO riguarda il rischio che lo sviluppo e l'impiego di queste tecnologie emergenti siano guidati esclusivamente dalle aziende tecnologiche dei paesi più ricchi. Ciò potrebbe portare a un ampliamento delle disuguaglianze e dei pregiudizi esistenti, soprattutto se i modelli AI non sono addestrati con dati che rappresentano in modo adeguato le popolazioni di regioni meno sviluppate.
La Gen AI in Sanità: “meno esaurimento, più soddisfazione”

La Gen AI in Sanità: “meno esaurimento, più soddisfazione”

L'articolo illustra come la Gen AI stia aprendo nuove strade nel settore sanitario, promettendo di rivoluzionare non solo le pratiche mediche, ma anche l'esperienza complessiva dei pazienti e dei professionisti, portando a un sistema sanitario più efficiente, efficace e centrato sulle persone.
L’AI può prevedere l’efficacia degli psicofarmaci?

L’AI può prevedere l’efficacia degli psicofarmaci?

L'articolo tratta l'efficacia degli algoritmi di intelligenza artificiale (AI) nel trattamento della schizofrenia. In particolare, si concentra su come questi algoritmi, progettati per personalizzare i trattamenti medici basandosi su grandi insiemi di dati, si comportano quando vengono applicati a nuovi dati non precedentemente analizzati.
L’AI intervista i pazienti

L’AI intervista i pazienti

L'oggetto della ricerca è un sistema di AI, basato su un modello avanzato di linguaggio (LLM), progettato per condurre interviste mediche. Questo chatbot AI, denominato Articulate Medical Intelligence Explorer (AMIE), è stato sviluppato per interagire con pazienti simulati, raccogliere la loro storia medica e fornire possibili diagnosi.

Il sistema è stato addestrato utilizzando dialoghi sia reali sia simulati, con lo scopo di imitare le interazioni tra medico e paziente. Per testare l'efficacia di AMIE, sono stati organizzati incontri online, basati su interazioni testuali, con attori formati per impersonare pazienti affetti da varie condizioni mediche. Questi incontri sono stati confrontati con quelli condotti da medici umani, valutando l'accuratezza delle diagnosi e la qualità della conversazione.

L’AI per la segnalazione della pedopornografia

L’AI per la segnalazione della pedopornografia

Questa analisi mette in evidenza una complessa interazione tra innovazioni tecnologiche, normative legali e l'imperativo etico della protezione dei minori. La dipendenza crescente dall'AI e le restrizioni legali presenti creano ostacoli significativi in una risposta efficace e tempestiva alle segnalazioni di abuso sessuale su minori online.
Sam Altman e Satya Nadella: una visione condivisa sul futuro dell’Intelligenza Artificiale”, The Economist, 17 Gennaio 2024

Sam Altman e Satya Nadella: una visione condivisa sul futuro dell’Intelligenza Artificiale”, The Economist, 17 Gennaio 2024

Altman e Nadella guardano al futuro dell'AI con ottimismo, prevedendo un impatto trasformativo sia nel mercato del lavoro sia nella società in generale. Pur riconoscendo le sfide, come evidenziato in un recente documento del Fondo Monetario Internazionale, sono fiduciosi che l'AI genererà più opportunità lavorative di quante ne elimini, contribuendo a una maggiore fluidità e dinamicità nel mercato del lavoro.
Iniziative della Cina per la regolamentazione dell’AI nel 2024

Iniziative della Cina per la regolamentazione dell’AI nel 2024

Le politiche cinesi sull'AI sembrano bilanciare il controllo governativo con la promozione dell'innovazione. Questo approccio contrasta con quello europeo, maggiormente incentrato sulla protezione dei diritti individuali e della privacy, e con quello statunitense, che privilegia una regolamentazione più liberale e orientata alle dinamiche di mercato.
NYT vs Open AI: Sfide Etiche e Legali nell’AI Generativa

NYT vs Open AI: Sfide Etiche e Legali nell’AI Generativa

La disputa NYT vs OpenAI solleva questioni etiche e legali nell'AI generativa: la battaglia legale si focalizza sulle violazioni di copyright e plagio, sottolineata dalla capacità dei modelli come GPT-4 di replicare testi protetti, il dibattito tecnico indaga l'influenza dei dati di addestramento sui modelli di AI. A livello morale, emerge il conflitto tra progresso tecnologico e diritti dei lavoratori-creatori.
L’AI in Oncologia: per un’assistenza sanitaria più umana

L’AI in Oncologia: per un’assistenza sanitaria più umana

L'articolo affronta le innovazioni e le sfide etiche poste dall'impiego delle tecnologie di intelligenza artificiale (AI) nella medicina, con un focus particolare sui pazienti oncologici.
Litio in Argentina: tra diritti violati e impatto ambientale

Litio in Argentina: tra diritti violati e impatto ambientale

L'articolo evidenzia le repressioni violente delle proteste scaturite in seguito a modifiche significative della costituzione argentina, mirate a favorire l'estrazione del litio, una risorsa sempre più richiesta globalmente per la produzione di batterie per auto elettriche, computer e telefoni cellulari.
Litio in Argentina: tra diritti violati e impatto ambientale

Litio in Argentina: tra diritti violati e impatto ambientale

L'articolo evidenzia le repressioni violente delle proteste scaturite in seguito a modifiche significative della costituzione argentina, mirate a favorire l'estrazione del litio, una risorsa sempre più richiesta globalmente per la produzione di batterie per auto elettriche, computer e telefoni cellulari.
New York Times vs OpenAI e Microsoft: si può applicare la norma del “fair use”?

New York Times vs OpenAI e Microsoft: si può applicare la norma del “fair use”?

La disputa legale tra il New York Times, da un lato, e OpenAI e Microsoft, dall'altro, ruota attorno all'accusa di violazione del copyright del New York Times. La querela sostiene che le due aziende tecnologiche abbiano illegalmente utilizzato "milioni" di articoli protetti dal copyright del Times per sviluppare i modelli di intelligenza artificiale di strumenti come ChatGPT e Bing. Questo caso, l'ultimo di una serie di cause attive, potrebbe influenzare significativamente l'industria dell'IA generativa.
I Robot Artisti

I Robot Artisti

Agnieszka Pilat, artista che risiede presso SpaceX a Hawthorne, California, ha curato un'eccezionale mostra in collaborazione con i robot cani Spot di Boston Dynamics presso la National Gallery of Victoria a Melbourne, Australia. Pilat, originaria della Polonia e cresciuta dietro la "Cortina di Ferro", vede la tecnologia come una "speranza".
Il modello cinese di AI

Il modello cinese di AI

La Cina ha fissato l'ambizioso obiettivo di diventare leader mondiale nell'IA entro il 2030. Tuttavia, l'emergere di tecnologie come ChatGPT, sviluppate negli Stati Uniti, ha messo in discussione questa aspirazione, evidenziando le divergenze nei modelli di AI tra le due potenze.
L’AI in medicina: responsabilità condivisa e approccio “learn not blame”

L’AI in medicina: responsabilità condivisa e approccio “learn not blame”

Nell’articolo “Artificial intelligence in clinical decision-making: Rethinking personal moral responsibility”, pubblicato su “Bioethics” del 19 settembre 2023, Helen Smith, Giles Birchley e Jonathan Ives affrontano il ruolo dell’intelligenza artificiale (AI) in medicina e la ridefinizione della responsabilità.
Interfaccia cervello-computer: questioni etico-legali

Interfaccia cervello-computer: questioni etico-legali

L'immaginario di un futuro in cui i pensieri umani sono verbalizzati attraverso una sorta di interfaccia esterna porta con sé interrogativi sulla privacy individuale e sulla libertà di scelta. Questa prospettiva inquietante suscita un'attenta riflessione sulle normative e sulle linee guida necessarie per regolamentare queste tecnologie che possono avere un utilizzo benefico. Va sottolineato infatti il potenziale positivo di queste tecnologie, in particolare nel supporto a individui affetti da gravi patologie neurologiche, come la sindrome di Locked-in, per migliorare la loro comunicazione e interazione con il mondo esterno.
Allineare l’Intelligenza Artificiale con i Valori Umani

Allineare l’Intelligenza Artificiale con i Valori Umani

Il post pubblicato il 27 dicembre su LessWrong, un sito e una comunità online dedicati al pensiero razionalista, solleva l'importante questione di come allineare i sistemi di Intelligenza Artificiale (AI) con i valori umani. L'articolo esplora la sfida di garantire che il futuro dell'AI rifletta ciò che gli esseri umani considerano prezioso, desiderabile e moralmente accettabile.
L’impatto dell’AI sull’informazione: non solo immagini distorte

L’impatto dell’AI sull’informazione: non solo immagini distorte

L'articolo esamina l'impatto significativo dell'Intelligenza Artificiale (AI) sulla diffusione della disinformazione nel corso del 2023. Tuttavia, l’articolo cita anche esempi di buona informazione: Scimex.org, Platformer.news, RetractionWatch.com, DailyYonder.com e On3.com producono contenuti basati sui fatti e sull'analisi accurata, fornendo informazioni affidabili e precise.
Report 2023 sull’AI a scopo repressivo

Report 2023 sull’AI a scopo repressivo

Il rapporto Freedom on the Net 2023 di Freedom House esamina l'uso crescente dell'intelligenza artificiale (AI) per scopi repressivi in tutto il mondo. Il report rileva che l'AI viene utilizzata per sorvegliare, censurare e controllare i cittadini in molti paesi.
La querela del New York Times contro OpenAI e Microsoft

La querela del New York Times contro OpenAI e Microsoft

La querela mette in luce come l'uso non autorizzato dei contenuti giornalistici nell'addestramento delle intelligenze artificiali possa compromettere le entrate delle organizzazioni giornalistiche, minare la loro integrità editoriale e indebolire la fiducia del pubblico nelle fonti tradizionali di informazione.
L’algoritmo predittivo “life2vec”: prevedere malattie e rischi

L’algoritmo predittivo “life2vec”: prevedere malattie e rischi

Gli algoritmi predittivi sono capaci di individuare indicatori di benessere e supportare decisioni informate. È fondamentale, però, comprendere che non si tratta di profezie divinatorie, ma di strumenti analitici basati su correlazioni. Non sono palle magiche, ma strumenti di calcolo. Il loro impiego dovrebbe focalizzarsi non sulla previsione del futuro, ma piuttosto sull'affrontare responsabilmente rischi personali e sociali.
L’AI utile per l’autenticazione delle opere d’arte

L’AI utile per l’autenticazione delle opere d’arte

L'AI è stata addestrata su 49 opere indiscutibili di Raffaello e riesce a riconoscere con un'accuratezza del 98% le opere autentiche dell'artista, esaminando dettagli come la tavolozza di colori, le tonalità e i tratti di pennello.
Riconoscimento facciale: diritti vs sicurezza

Riconoscimento facciale: diritti vs sicurezza

Il riconoscimento facciale è uno degli aspetti dell'AI che alimenta il dibattito pubblico, coinvolgendo questioni cruciali legate alla privacy e ai diritti individuali.
Oltre la Linea Rossa: l’impatto dell’Intelligenza Artificiale Generale sull’Umanità

Oltre la Linea Rossa: l’impatto dell’Intelligenza Artificiale Generale sull’Umanità

Attualmente, l'AI è sotto controllo umano e le sue azioni sono regolate dalla legge. Tuttavia, esistono preoccupazioni riguardo a futuri sviluppi in cui l'AI potrebbe diventare autonoma e determinare i propri obiettivi.
Regolamentazione dell’AI: paralleli con la Medicina

Regolamentazione dell’AI: paralleli con la Medicina

L'articolo traccia un parallelo tra la regolamentazione nella medicina e quella nell'intelligenza artificiale, mettendo in luce come entrambe le aree affrontino sfide simili.
Perché l’intelligenza umana sia migliore di quella artificiale

Perché l’intelligenza umana sia migliore di quella artificiale

Mancuso mette in luce che dobbiamo smettere di guardare all’intelligenza artificiale come se fosse l’Oracolo di Delphi, che ci dà risposte e soluzioni, invita a guardare all'intelligenza artificiale non come un sostituto completo o una soluzione definitiva per i problemi umani, ma piuttosto come uno strumento.
Un’etica per i veicoli autonomi

Un’etica per i veicoli autonomi

L'articolo esplora l'impiego della tecnologia della realtà virtuale per analizzare le decisioni etiche nel contesto automobilistico, in particolare le scelte morali coinvolte nei veicoli autonomi.
Il bivio dell’AI tra scienza e prescienza: l’equilibrio tra il sorprendente e il fondato

Il bivio dell’AI tra scienza e prescienza: l’equilibrio tra il sorprendente e il fondato

L'impiego improprio dell'AI sta causando un'ondata di ricerche poco affidabili o inutili, delineando un paesaggio scientifico che sembra essere ancora in uno stato di "far west".
AI in sanità su binari sicuri

AI in sanità su binari sicuri

Alessandro Vespignani analizza in modo realistico l'utilizzo dell'intelligenza artificiale (AI) nel campo medico
AI: chi ha i soldi fa le regole, condiziona l’innovazione e attenta alla democrazia

AI: chi ha i soldi fa le regole, condiziona l’innovazione e attenta alla democrazia

Le grandi aziende tech controllano la direzione dell'AI influenzando i modelli di business, le politiche e i valori culturali che ne guidano lo sviluppo. Questo potrebbe compromettere la libertà di espressione, il pluralismo culturale e l'equità nel processo decisionale, mettendo a rischio i principi fondamentali della democrazia e della cultura inclusiva.
ChatGPT: parla senza pensare, ma ci allarga la mente

ChatGPT: parla senza pensare, ma ci allarga la mente

ChatGPT ha scardinato il legame tradizionale tra linguaggio e mente. Il linguaggio, solitamente associato a intenzioni e capacità umane, non implica automaticamente la presenza di una mente con emozioni e intenti. Questo cambiamento destabilizza non solo l'antropomorfismo, ma anche l'essenzialismo, secondo il quale le caratteristiche osservabili richiamano un'essenza intrinseca. ChatGPT sfida la logica "tutto o niente", dimostrando che il linguaggio in sé non implica necessariamente l'esistenza di un'essenza mentale definita. L'articolo invita a un approccio meno rigido nell'analizzare le AI, incoraggiando un'apertura mentale per comprendere la loro complessità senza forzare concetti umani su di esse.
AI: trasparenza o prestazioni? Un Aut Aut da bilanciare

AI: trasparenza o prestazioni? Un Aut Aut da bilanciare

La filosofia che emerge è quella di trovare un equilibrio tra spiegabilità e prestazioni, adattando la esplicabilità dell'AI in base alle esigenze specifiche dei diversi contesti di applicazione.
I LLM sono senza coscienza e non si giocano la pelle

I LLM sono senza coscienza e non si giocano la pelle

I LLM attuali, nonostante possano simulare alcuni aspetti della coscienza, non ne sono effettivamente dotati e la coscienza potrebbe essere strettamente legata alla complessità biologica.
Al di là delle logiche umane: come l’AI ridefinisce la ricerca scientifica

Al di là delle logiche umane: come l’AI ridefinisce la ricerca scientifica

L'AI potrebbe aiutarci non solo nelle scoperte innovative, ma anche a capire meglio chi siamo, quali sono i nostri preconcetti.
L’AI nella Storia dell’Arte

L’AI nella Storia dell’Arte

L'AI potenzia la comprensione delle opere rivelando particolari nascosti, recupera capolavori perduti e apre prospettive stimolanti sul patrimonio culturale globale.
(USA) nH Predict esclude dalle cure: errore o dolo?

(USA) nH Predict esclude dalle cure: errore o dolo?

L'algoritmo nH Predic genera stime estremamente restrittive sulla necessità di cure, senza considerare le comorbilità; esclude dalla copertura assistenziale chi ne avrebbe diritto.
L’AI per “cure accessibili da ogni luogo e in ogni momento”

L’AI per “cure accessibili da ogni luogo e in ogni momento”

L'innovativa piattaforma ecosistematelemedicina.it è il risultato di un impegno congiunto tra diverse società scientifiche e sanitarie. Questo ecosistema virtuale è un punto di riferimento nell'ambito della digitalizzazione della sanità e poggia le sue fondamenta su una filosofia inclusiva e collaborativa.
L’AI nella bioetica medica: utile, ma senza esprit de finesse

L’AI nella bioetica medica: utile, ma senza esprit de finesse

GPT-4 può essere utile nella gestione dei dilemmi etici, ma deve essere integrato con l'esperienza umana e l'intelligenza emotiva per affrontare al meglio le questioni della bioetica medica.
“Vulavula”: un modello AI per le lingue africane

“Vulavula”: un modello AI per le lingue africane

Gran parte dei modelli AI non riescono a comprendere le lingue africane, creando un divario significativo per chi parla queste lingue meno diffuse. L’azienda Lelapa AI ha progettato “Vulavula”, che significa "parlare" in Xitsonga. Vulavula è una AI specifica per le lingue africane, è in grado di convertire la voce in testo e rilevare nomi di persone e luoghi in varie lingue africane.
Costruire fiducia tra pazienti e medici grazie all’AI: Intervista al dottor Andrew Bindman

Costruire fiducia tra pazienti e medici grazie all’AI: Intervista al dottor Andrew Bindman

Il dottor Andrew Bindman evidenzia le opportunità dell'AI, sottolinea che l'AI permette la previsione del peggioramento del paziente e la valutazione dei rischi di gravi condizioni come la sepsi.
L’AI nell’Educazione: Sfide e Strategie costruttive

L’AI nell’Educazione: Sfide e Strategie costruttive

Nel briefing della Johns Hopkins University del 19 settembre, gli esperti hanno affrontato le sfide e le opportunità legate all’uso di ChatGPT e di altre tecnologie basate sull’Intelligenza Artificiale (AI) nell’ambito dell’istruzione. Hanno partecipato alla discussione: James Diamond, Ricercatore nel campo dei media digitali e nell’apprendimento, la sua ricerca si focalizza principalmente sull’impiego dei giochi […]
Ethics and AI: dalla lezione del Professor Mori (8/11/2023)

Ethics and AI: dalla lezione del Professor Mori (8/11/2023)

Mori critica il quadro “antiquato” dell'etica dell'AI come strumento esterno e sottolinea come l'AI stia ridefinendo gradualmente la natura umana. Sottolinea la necessità di nuovi valori etici e regole per guidare la collaborazione tra uomini e macchine.
La “Dichiarazione sull’uso etico della tecnologia medica” dell’Associazione Medica Mondiale

La “Dichiarazione sull’uso etico della tecnologia medica” dell’Associazione Medica Mondiale

Il 17 ottobre 2023 la World Medical Association, ha pubblicato la “Declaration on the Ethical Use of Medical Technology” in cui si ribadisce il “quadro previsto dai principi fondamentali dell'etica medica” già chiarito in precedenti documenti. Nel Preambolo si legge che: “Il rispetto della dignità e dei diritti umani, l’autonomia del paziente, la beneficenza, la riservatezza, la privacy e l’equità devono essere i punti guida chiave quando la tecnologia viene sviluppata e utilizzata per scopi medici”.
L’articolo commenta la Dichiarazione e analizza se i principi della WMA Declaration siano adeguati ad una medicina che sempre più usa le tecnologie AI o se sarebbe necessario un approccio più complesso e articolato.
Obiettivi di cura e AI: conversazione con il Dott. Kedar S. Mate

Obiettivi di cura e AI: conversazione con il Dott. Kedar S. Mate

Come l’AI contribuisce ai 5 obiettivi della medicina: Miglioramento della salute della popolazione, Miglioramento dell'esperienza di cura, Riduzione dei costi nell'assistenza sanitaria, Riduzione del burnout tra i professionisti sanitari,Miglioramento dell'equità sanitaria.
Ethics and AI: dalla lezione del Professor Boella (25 ottobre 2023)

Ethics and AI: dalla lezione del Professor Boella (25 ottobre 2023)

Seconda lezione del Prof. Boella su "Ethics and AI" per il Corso di Dottorato organizzato da Sipeia (Società Italiana per l'Etica dell'IA)
Ethics and AI: dalla lezione della Professoressa Tiziana Catarci (18 ottobre)

Ethics and AI: dalla lezione della Professoressa Tiziana Catarci (18 ottobre)

La "fairness" è il filo conduttore della lezione della Professoressa Tiziana Catarci che affronta la necessità di rendere l'IA equa.
La sorveglianza dell’IA: un Panopticon disumano?

La sorveglianza dell’IA: un Panopticon disumano?

Emanuel Maiberg, in un articolo scritto su “404 Media” il 28 settembre, riflette su uno studio preprint, intitolato “Il Flusso di Sorveglianza dell’IA”, che ha analizzato più di 20.000 articoli e 11.000 brevetti nel campo della visione artificiale, coprendo un arco temporale di tre decenni. Innanzitutto, si è riscontrato che la stragrande maggioranza della ricerca nel […]
Ethics and AI: dalla lezione di Maurizio Mori (11.10.2023)

Ethics and AI: dalla lezione di Maurizio Mori (11.10.2023)

Nell’ambito del corso Ethics and AI, Mercoledì 11 Ottobre, il Professor Maurizio Mori ha tenuto una lezione interattiva sull’etica,  con un focus speciale sull’etica nell’ambito della tecnologia. Il Professor Mori ha presentato l’etica come un’istituzione sociale, interiorizzata dalle persone. Ha spiegato che un’istituzione è un sistema organizzato che ha per scopo il coordinamento sociale. Questo concetto è stato ulteriormente […]
Per una Intelligenza Artificiale inclusiva

Per una Intelligenza Artificiale inclusiva

L’articolo di Kave Noori, su European Disability Forum Report del 28 agosto 2023, esplora il potenziale dell’Intelligenza Artificiale (IA) nel migliorare la vita delle persone con disabilità.  L’IA può fornire soluzioni personalizzate che migliorano la qualità della vita, ma c’è anche il rischio che, se non viene adeguatamente addestrata, diventi strumento di discriminazione. L’articolo enfatizza la necessità di un […]
Etica e AI: dalla lezione del Prof. Guido Boella

Etica e AI: dalla lezione del Prof. Guido Boella

Nella lezione “Ethics and AI” del 4 Ottobre, il Professor Guido Boella, ha sottolineato che l’intelligenza artificiale non è solamente una questione tecnologica, bensì è parte integrante di un contesto più ampio che abbraccia aspetti industriali, economici, sociali e ambientali. Questo insieme di fattori contribuisce all’impatto complessivo dell’AI sulla società, rendendo le questioni etiche ancora più rilevanti […]
I chatbot in psicoterapia

I chatbot in psicoterapia

L’articolo “L’intelligenza artificiale al servizio della salute mentale: i chatbot in psicoterapia“, scritto  da Tiara Ailen Belloni Carreras e Rosita Borlimi e pubblicato sulla rivista “The State of Mind” il 26 settembre 2023, offre un quadro documentato sull’evoluzione dell’utilizzo dell’Intelligenza artificiale in psicoterapia, con particolare attenzione all’uso di chatbot. I chatbot sono programmi che utilizzano l’elaborazione […]
L’AI nelle decisioni di fine vita

L’AI nelle decisioni di fine vita

L’articolo “Eutanasia ed etica dell’IA” di Roberto Cavaleiro, su The Portugal News del 29 Settembre, tratta della recente estensione della legge canadese sull’eutanasia per includere i pazienti di età compresa tra i 13 e i 17 anni.  La nuova legislazione canadese, che entrerà in vigore nel marzo 2024, consente l’eutanasia non solo per malattie terminali, […]
“Tecnofeudalismo” e “servitù digitale”

“Tecnofeudalismo” e “servitù digitale”

In un’intervista recente pubblicata su The Guardian il 24 settembre 2023, Carole Cadwalladr incontra Yanis Varoufakis, l’economista greco noto sia per il suo ruolo di Ministro delle Finanze durante la crisi del debito greco, sia per la sua critica al sistema finanziario globale. Il focus dell’intervista è il nuovo libro di Varoufakis intitolato “Technofeudalism“, nel […]
La Corte EU nega piena trasparenza nell’uso dell’AI nel riconoscimento delle emozioni alle frontiere

La Corte EU nega piena trasparenza nell’uso dell’AI nel riconoscimento delle emozioni alle frontiere

L’articolo di Barbora Bukovská, pubblicato il 7 settembre 2023 da “Article 19”,  tratta della decisione della Corte di Giustizia dell’Unione Europea di negare l’accesso pubblico ai documenti relativi a un controverso progetto di riconoscimento delle emozioni finanziato dall’Unione Europea, a motivo della protezione degli interessi commerciali. Patrick Breyer, membro del Parlamento Europeo e attivista per i […]
L’AI cambia la medicina e pungola l’etica

L’AI cambia la medicina e pungola l’etica

L’uso crescente dell’intelligenza artificiale sta cambiando il settore sanitario e solleva importanti questioni di responsabilità. Attualmente, la responsabilità principale ricade sui medici, anche quando utilizzano sistemi di intelligenza artificiale. Tuttavia, in un recente e già molto citato articolo su Bioethics, Smith, Birchley e Ives sostengono che le aziende sviluppatrici di queste tecnologie dovrebbero condividere la responsabilità e […]
Proteggere i neurodati e regolamentare le neurotecnologie basate sull’intelligenza artificiale

Proteggere i neurodati e regolamentare le neurotecnologie basate sull’intelligenza artificiale

Introduzione L’articolo A difesa della privacy dei neurodati e della regolamentazione delle neurotecnologie, scritto da Rafael Yuste e pubblicato su Nature Protocols l’11 settembre 2023, sottolinea la necessità di affrontare con consapevolezza le complesse questioni etiche sollevate dalle neurotecnologie per garantirne una crescita responsabile. Propone soluzioni tecniche, regolamentazioni mediche e l’adozione di un Giuramento Tecnocratico come […]
L’Intelligenza artificiale nell’assistenza sanitaria: potenzialità e rischi di “AI gaslighting”, “AI Hallucinations” e violazione della privacy

L’Intelligenza artificiale nell’assistenza sanitaria: potenzialità e rischi di “AI gaslighting”, “AI Hallucinations” e violazione della privacy

Rebecca Voelker, in un articolo pubblicato su JAMA il 20 settembre 2023, presenta un’intervista condotta da Kirsten Bibbins-Domingo, Editor in Chief di JAMA, con il dottor Michael Howell, Chief Clinical Officer di Google Health.  Il dottor Howell spiega che il suo team clinico è composto da medici, infermieri, psicologi ed economisti della salute. Questa squadra […]
Postdigitale. Per una intelligenza artificiale culturale

Postdigitale. Per una intelligenza artificiale culturale

L’articolo  Postdigitale. Per una Intelligenza artificiale culturale  di Simone Arcagni, pubblicato sul Sole 24 Ore il 26 settembre 2023, getta una luce interessante sul ruolo dell’Intelligenza Artificiale (IA) come fattore culturale e filosofico, oltre che tecnologico ed economico. Arcagni inizia il suo articolo affermando che la rivoluzione digitale è giunta a termine, e ora ci troviamo in un’epoca in cui […]
L’Intelligenza artificiale rivoluziona il mondo del lavoro e le competenze tecniche del futuro

L’Intelligenza artificiale rivoluziona il mondo del lavoro e le competenze tecniche del futuro

L’articolo “L’Intelligenza Artificiale rivoluziona il mondo del lavoro e le competenze tecniche del futuro” è presentato da Workflow Quarterly, che è una pubblicazione digitale di ServiceNow, una piattaforma che esplora il futuro del lavoro, i flussi di lavoro digitali e l’impatto dell’intelligenza artificiale sul posto di lavoro. Si legge che il futuro del lavoro sta attraversando […]
AI for Good: la sfida dello Sviluppo Sostenibile

AI for Good: la sfida dello Sviluppo Sostenibile

L’articolo “The ethical dilemma of AI”, pubblicato da Mehdi Hussain su l’Hindustan Times del 25 settembre 2023, sottolinea le molteplici sfide che l’Intelligenza Artificiale sta portando nella società.Il fulcro dell’articolo è il programma “AI for Good“, un’iniziativa che mira a utilizzare l’IA come strumentoper affrontare le questioni globali e promuovere il progresso verso gli Obiettivi […]
Creare regole per un futuro responsabile: la necessità di regolamentare l’intelligenza Artificiale avanzata

Creare regole per un futuro responsabile: la necessità di regolamentare l’intelligenza Artificiale avanzata

Nell’articolo su The Guardian del 21 settembre 2023, Dan Milmo presenta l’impegno di Max Tegmark per promuovere una discussione e una regolamentazione responsabile sull’IA avanzata. La sua preoccupazione principale è garantire che l’IA sia sviluppata in modo sicuro e responsabile per evitare rischi potenzialmente gravi. Il fisico Max Tegmark, co-fondatore dell’Institute for the Future of […]
L’Intelligenza artificiale nel processo decisionale clinico: ripensare la responsabilità morale personale

L’Intelligenza artificiale nel processo decisionale clinico: ripensare la responsabilità morale personale

Il 19 settembre 2023, Helen Smith, Giles Birchley e Jonathan Ives hanno pubblicato, sulla rivista Bioethics, un articolo sull’impiego dell’intelligenza artificiale nei processi decisionali clinici in cui propongono una riflessione approfondita sulla responsabilità morale. Il testo esamina la questione della responsabilità morale personale nell’uso di sistemi di intelligenza artificiale (IA) nei contesti clinici, proponendo un […]
La difesa del principio di “esplicabilità”

La difesa del principio di “esplicabilità”

Adams analizza l’idea di Luciano Floridi (Floridi and Cowls 2019; Floridi et al. 2018) e dei suoi colleghi di includere un nuovo principio, chiamato “esplicabilità”, nell’ambito dell’etica dell’intelligenza artificiale in medicina. Questo principio viene aggiunto ai quattro principi classici della bioetica medica di Beauchamp e Childress (1979): beneficenza (fare del bene), non-maleficenza (evitare il male), […]
Yuval Noah Harari e Mustafa Suleyman sul futuro dell’intelligenza artificiale

Yuval Noah Harari e Mustafa Suleyman sul futuro dell’intelligenza artificiale

The Economist ha riunito Yuval Noah Harari, storico e filosofo, e Mustafa Suleyman, co-fondatore di DeepMind, per discutere cosa significhi la rivoluzione dell’intelligenza artificiale per il nostro futuro. Nel corso degli ultimi anni, l’Intelligenza Artificiale (IA) ha fatto enormi progressi, rivoluzionando settori che vanno dalla medicina alla finanza, dalla produzione all’arte. Tuttavia, con il crescente […]
La questione del consenso informato negli impianti cerebrali

La questione del consenso informato negli impianti cerebrali

L’articolo  Biotechnology and Health: The tricky ethics of brain implants and informed consent di Cassandra Willyard, su “MIT Technology Review” il 25 agosto 2023, esamina il potenziale delle interfacce cervello-computer per aiutare le persone prive della capacità di parlare a comunicare nuovamente, sottolineando le complesse questioni etiche legate al consenso informato in tali casi in cui la […]
Più di 110 docenti universitari da tutta Europa e oltre chiedono alle istituzioni europee di includere una valutazione dell’impatto sui diritti fondamentali nella futura regolamentazione sull’intelligenza artificiale

Più di 110 docenti universitari da tutta Europa e oltre chiedono alle istituzioni europee di includere una valutazione dell’impatto sui diritti fondamentali nella futura regolamentazione sull’intelligenza artificiale

Il 12 settembre 2023, il Brussels Privacy Hub ha lanciato un appello per approvare una valutazione dell’impatto sui diritti fondamentali nei documenti sull’intelligenza artificiale (AI) dell’Unione Europea (UE). Questo appello è stato sottoscritto da oltre 110 firmatari, tra cui illustri accademici (l’Italia ha il maggior numero di firmatari, 14). Il Brussels Privacy Hub, insieme a […]
IA: perché è difficile da disciplinare

IA: perché è difficile da disciplinare

Il Mulino, 11 settembre 2023 L’articolo affronta la sfida della regolamentazione dell’Intelligenza Artificiale (IA), concentrandosi sulla distinzione tra la vecchia IA e la nuova IA basata su reti neurali. La vecchia IA si basava su programmi scritti da esseri umani, i quali conferivano all’IA una conoscenza esplicita e limitata. In contrasto, la nuova IA utilizza […]
L'AI nei Social Media: un "Farmaco" Politicamente Potente

L'AI nei Social Media: un "Farmaco" Politicamente Potente

Mercoledì 6 settembre il garante del Movimento 5 Stelle, Beppe Grillo, ha pubblicato nel suo Blog un video poi ripreso dai media, in cui, grazie all’intelligenza artificiale parla in cinese, prospettando ironicamente l’incrocio della ‘via della seta’ con la ‘via del basilico’. Il video richiama quello di  Kemal Kilicdaroglu, che è stato il principale sfidante del […]
Dovrebbe l’Intelligenza Artificiale essere utilizzata per sostenere la presa di decisioni etiche cliniche? Una rassegna sistematica delle motivazioni

Dovrebbe l’Intelligenza Artificiale essere utilizzata per sostenere la presa di decisioni etiche cliniche? Una rassegna sistematica delle motivazioni

Benzinger, L., Ursin, F., Balke, WT. et al. Should Artificial Intelligence be used to support clinical ethical decision-making? A systematic review of reasons. BMC Med Ethics 24, 48 (2023). https://doi.org/10.1186/s12910-023-00929-6 Questo lavoro esplora la questione dell’uso dell’Intelligenza Artificiale (IA) nelle decisioni etiche in ambito clinico. Gli operatori sanitari, sia medici che infermieri, si trovano spesso di fronte a sfide […]