• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Rischio: Trasparenza

Rischio: Trasparenza

  • Le big tech hanno mentito: emissioni data center sottostimate di oltre 7 volte

    Le big tech hanno mentito: emissioni data center sottostimate di oltre 7 volte

    Le emissioni dei data center delle principali aziende tecnologiche quali Google, Microsoft, Meta e Apple, potrebbero essere sottostimate di molto, con un divario del 662% rispetto ai dati ufficiali.  Infatti, emerge da un’indagine svolta dal The Guardian che tra il 2020 e il 2022, queste emissioni sarebbero state 7,62 volte più alte del dichiarato, soprattutto…

  • L’IA generativa minaccia la trasparenza e la proprietà intellettuale accademica

    L’IA generativa minaccia la trasparenza e la proprietà intellettuale accademica

    L’IA generativa, sebbene sia diventata una risorsa preziosa nel mondo accademico, presenta rischi significativi per la proprietà intellettuale e la riservatezza dei dati.  Timothée Poisot, ecologo computazionale dell’Università di Montreal, solleva preoccupazioni riguardo all’interferenza dell’IA nei processi scientifici e politici, temendo che le affermazioni non verificate dei chatbot possano influenzare decisioni cruciali come quelle della…

  • Spotify e le fake band generate dall’IA

    Spotify e le fake band generate dall’IA

    Spotify è al centro di un nuovo scandalo legato alla presenza di band “finte” che pubblicano cover di canzoni famose, generando milioni di ascolti inconsapevoli.  Queste band, come ad esempio gli “Highway Outlaws” e i “Waterfront Wranglers,” sono in realtà progetti generati con l’IA e distribuiti su piattaforme di streaming senza alcuna presenza reale o…

  • La Chain-of-thoughts: un approccio trasparente e innovativo

    La Chain-of-thoughts: un approccio trasparente e innovativo

    La Chain-of-thought AI (CoT) è un approccio innovativo che permette di rendere i sistemi di intelligenza artificiale più trasparenti e interpretabili, riducendo il problema della “scatola nera” nell’apprendimento automatico: spiegando, infatti, i passi del processo decisionale, si migliora la comprensione e, di conseguenza, si riesce a gestire meglio la responsabilità che ne deriva in settori…

  • L’allineamento normativo sull’IA sembra ancora troppo frammentato

    L’allineamento normativo sull’IA sembra ancora troppo frammentato

    Con l’emergere delle regolamentazioni sulla trasparenza dell’intelligenza artificiale i governi hanno l’opportunità di allinearsi su due delle principali preoccupazioni legate al suo: la similarità (o “somiglianza“) delle interazioni con l’intelligenza artificiale a quelle umane e la poca trasparenza dei sistemi IA. Le interazioni con i sistemi IA stanno diventando sempre più simili a quelle umane,…

  • Le condizioni lavorative precarie e dannose per la salute dei moderatori dei dati delle piattaforme

    Le condizioni lavorative precarie e dannose per la salute dei moderatori dei dati delle piattaforme

    Nel luglio 2024, il Distributed AI Research Institute (DAIR) ha lanciato un nuovo progetto chiamato “Data Workers’ Inquiry” per dare voce ai lavoratori che si occupano dei dati (elaborazione, etichettatura e moderazione dei dati) invitandoli a raccontare le proprie esperienze e a condurre ricerche autonome. Questo progetto si concentra sulle condizioni lavorative di coloro che…

  • Trasparenza in Aumento: Risultati del Nuovo Indice di Trasparenza dei Modelli di Fondazione

    Trasparenza in Aumento: Risultati del Nuovo Indice di Trasparenza dei Modelli di Fondazione

    Dopo sei mesi dalla pubblicazione dell’Indice di Trasparenza del Modello di Fondazione (“The Foundation Model Transparency Index”), emerge un quadro di miglioramento, ma con ancora ampio spazio per crescere.  Il team del FMTI ha condotto uno studio di follow-up, rivelando che gli sviluppatori stanno diventando più trasparenti, sebbene restino delle aree di opacità. L’indice, lanciato…

  • Gaza e la Silicon Vale: No Tech for Apartheid

    Gaza e la Silicon Vale: No Tech for Apartheid

    Con l’attacco israeliano a Gaza che mette in evidenza i contratti militari della Silicon Valley, i lavoratori delle aziende tecnologiche si trovano in una posizione critica. Devono decidere se prendere una posizione rischiando il proprio lavoro, assicurazione sanitaria e visto, o ignorare il sospetto che il loro lavoro contribuisca a morti innocenti. Secondo William Fitzgerald,…

  • L’Intelligenza Artificiale non ha paura del caos

    L’Intelligenza Artificiale non ha paura del caos

    Che il mondo sia più imprevedibile di quanto desideriamo, lo verifichiamo tutte le volte che, partiti per il weekend, scopriamo che le previsioni del tempo sono… sbagliate. Dalla nascita dell’Intelligenza Artificiale (IA) nell’estate del 1956 al Dartmouth College, nella città di Hanover, nel New Hampshire (Stati Uniti d’America), i ricercatori dell’IA si sono focalizzati per…

  • Artificial intelligence is not afraid of chaos

    Artificial intelligence is not afraid of chaos

    That the world is more unpredictable than we would like is confirmed every time we go away for the weekend and find out that the weather forecast was…wrong. Since the birth of artificial intelligence (AI) in the summer of 1956 at Dartmouth College, Hanover, New Hampshire (USA), AI researchers have focused for decades on the…