• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

AI Action Summit: Costruire Fiducia nell’Intelligenza Artificiale

AI Summit di Parigi

Con la continua trasformazione che l’intelligenza artificiale (IA) sta apportando al nostro mondo, la governance di questa potente tecnologia emerge come una delle sfide più urgenti dei nostri tempi.

Questo il tema del recente AI Action Summit a Parigi, giunto in un momento cruciale nel panorama dell’IA, poiché il ritmo dell’innovazione si intensifica con nuovi attori nel campo, come la start-up cinese DeepSeek, che ha scioccato il mondo con i suoi nuovi modelli linguistici di grandi dimensioni a costi contenuti. L’ingresso di DeepSeek nella corsa all’IA sottolinea ulteriormente che stiamo entrando in una nuova fase di innovazione nell’IA—una fase che porterà a un aumento dell’adozione e, si potrebbe argomentare, a una democratizzazione dell’IA man mano che la tecnologia diventa più efficiente ed economica.

Le ripercussioni di DeepSeek e la sua influenza sulla corsa tra Stati Uniti e Cina, insieme alle più ampie dinamiche geopolitiche, rappresentano un’opportunità significativa per l’Unione Europea di ritagliarsi un proprio spazio. In concomitanza con questo momento, l’UE ha svelato la sua strategia Competitive Compass, che mira a dare priorità alla “riduzione del divario di innovazione” nel settore dell’IA. Attraverso investimenti mirati in start-up e nell’ecosistema più ampio dell’IA, questa iniziativa dovrebbe stimolare l’innovazione all’interno dell’Unione.

Bilanciare il ritmo accelerato dell’innovazione con la governance

Qual è la posizione attuale delle recenti avanzamenti nel campo dell’IA in termini di governance? I critici della direzione attuale sostengono che queste scoperte e l’impulso dei governi in tutto il mondo potrebbero dare maggiore valore all’innovazione piuttosto che alla regolamentazione, ponendo forte enfasi sullo sviluppo di nuovi modelli, sull’utilizzo di soluzioni open source e sulla competizione aggressiva nel panorama dell’IA. Questa prospettiva solleva preoccupazioni che le misure di governance potrebbero essere trascurate mentre l’innovazione sovrasta la necessità di supervisione, creando uno scenario in cui le considerazioni etiche e i quadri normativi non sono adeguatamente affrontati. Al contrario, alcuni sostengono che questa priorizzazione sia essenziale, considerando le regolamentazioni come meri ostacoli burocratici e affermando che le imprese possano operare autonomamente. Loro sostengono che vincere questa corsa sia cruciale per migliorare la produttività e rafforzare l’economia.

Sebbene l’evoluzione della governance dell’IA abbia fatto progressi, è fondamentale che i governi, le imprese, la società civile e il mondo accademico riflettano sugli sviluppi recenti. È necessario valutare come la democratizzazione positiva dell’IA e la riduzione delle barriere all’ingresso influenzino le discussioni sulla governance in cui ci siamo impegnati finora.

La governance dell’IA si concentra sull’assicurare che l’intelligenza artificiale serva l’umanità, piuttosto che minacciarla. Ciò include vari elementi, come regolamenti, standard, termini e condizioni per i prodotti IA, così come i quadri di governance adottati dalle aziende per l’uso, lo sviluppo e il dispiegamento delle tecnologie IA. Gli approcci alla governance variano significativamente: l’UE ha introdotto l’EU AI Act, mentre le regolamentazioni negli Stati Uniti sembrano svilupparsi a livello statale. Nella regione Asia-Pacifico, sono già stati implementati diversi documenti di orientamento e politiche. Nel frattempo, vengono stabiliti standard, che vanno dai quadri ISO alle iniziative del CENELEC dell’UE.

Con l’accessibilità crescente dell’IA e la giusta riduzione delle barriere all’ingresso, dobbiamo anticipare nuove sfide.

La sfida principale risiede nella natura globalmente intrinsecamente della governance dell’IA—richiede una collaborazione internazionale per garantire che i sistemi IA siano equi, inclusivi e resilienti. Il rischio è che, mentre la competizione per la supremazia tecnologica si intensifica, la responsabilità possa essere trascurata, ostacolando la formazione di strategie globali per affrontare questioni critiche come la disinformazione.

In secondo luogo, l’IA open-source offre sostanziali opportunità di innovazione attraverso iniziative collaborative. La definizione di open-source nel contesto dell’IA è stata oggetto di un dibattito continuo, in particolare poiché molti strumenti mancano di trasparenza riguardo ai dati utilizzati per l’addestramento. Tuttavia, una caratteristica chiave dell’IA open-source è la pubblicazione dei pesi dei modelli. È probabile che sempre più aziende creino e adottino questi modelli per ridurre i costi e accelerare l’innovazione. È fondamentale, però, riconoscere le sfide associate all’open-source, in particolare quelle relative alla proprietà intellettuale e alle preoccupazioni di privacy e sicurezza. La disponibilità di pesi dei modelli, architetture e metodologie di addestramento potrebbe fornire vantaggi a soggetti malintenzionati nel tentativo di sfruttare questi modelli. Sebbene i benefici del rilascio di modelli ampi superino generalmente gli svantaggi, sia gli utenti che gli sviluppatori devono essere consapevoli dei rischi intrinseci legati alle pratiche open-source. Inoltre, la collaborazione tra governi, imprese e mondo accademico è cruciale per far progredire la ricerca in questo ambito.

In terzo luogo, possiamo aspettarci notevoli upheavals nel mercato tecnologico. Sia i modelli chiusi che quelli open-source probabilmente coesisteranno, con le aziende che si sforzeranno di innovare e migliorare l’efficienza di questi strumenti. Tuttavia, in ultima analisi, sia le organizzazioni che gli individui si orienteranno verso prodotti di cui si fidano. La fiducia è un fattore cruciale, frequentemente discusso nel contesto della governance dell’IA, dove enfatizziamo che la fiducia è essenziale per favorire la crescita. Sebbene questo concetto sia valido, non abbiamo ancora raggiunto un consenso su cosa significhi realmente la fiducia.

Negli ultimi anni, le fondamenta del nostro mondo sono state messe alla prova. I modelli di IA generativa sfidano concetti fondamentali come la privacy—attraverso il web scraping—le leggi sul copyright, che non possono rimanere immutate, e la sicurezza—consideriamo la rapida produzione di deepfake che potrebbero compromettere l’integrità delle elezioni. Questi modelli, siano essi open-source o meno, perpetuano pregiudizi e riflettono la società in cui viviamo.

Pertanto, la questione urgente a mio parere gravita attorno alla fiducia. Quali criteri dobbiamo stabilire per garantire questa fiducia—come inclusività, equità, trasparenza, sicurezza, privacy e distribuzione equa dei benefici dell’IA? Inoltre, come possiamo raggiungere un consenso su questi criteri nel contesto della corsa all’IA? Su questo si gioca la sfida innovativa dell´Unione Europea – una sfida che mai ha avuto un signifato maggiore.

Immagini generate tramite DALL-E

Esplora altri articoli su questi temi