• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine - L’Intelligenza Artificiale è più di quello che appare

Gianluca Fasano

Dirigente Tecnologo del Consiglio Nazionale delle Ricerche (ISTC), con un passato di avvocato del libero foro e manager in enti pubblici di ricerca. Ho partecipato a progetti di ricerca nazionali ed internazionali, collaboro con altri enti pubblici e privati nel ruolo di consultant, of consuel e teacher. Studio le intersezioni  tra diritto e nuove tecnologie, ho scritto saggi ed articoli in materia di diritto pubblico, diritto dell’Unione Europea, diritti fondamentali e ho presentato su questi temi relazioni presso convegni e seminari.

La statua risponde: AI, studenti e domande mancanti

La statua risponde: AI, studenti e domande mancanti

Dal mito di Theuth a ChatGPT: la statua che risponde solleva interrogativi su AI, studenti e futuro del dialogo come motore della conoscenza.
L’intelligenza artificiale e l’autonomia nella ricerca scientifica

L’intelligenza artificiale e l’autonomia nella ricerca scientifica

L’AI generativa sta rivoluzionando la ricerca scientifica, accelerando scoperte ma ponendo sfide etiche su autonomia, responsabilità e impatto sulla conoscenza.
Sistemi decisionali automatizzati: il diritto all’intervento umano come esplicazione del diritto all’oblio

Sistemi decisionali automatizzati: il diritto all’intervento umano come esplicazione del diritto all’oblio

Il diritto all’intervento umano nei sistemi decisionali automatizzati è legato al diritto all’oblio, poiché gli algoritmi possono vincolare una persona al suo passato, condizionando le decisioni future. Il GDPR protegge dai rischi di decisioni esclusivamente automatizzate, ma spesso l'intervento umano è solo formale. La Corte di Giustizia, con il caso del credit scoring, sottolinea l’importanza di tutelare il diritto all’oblio, permettendo alle persone di non essere giudicate solo in base ai dati storici e di avere opportunità di un nuovo inizio.
Large Language Models: le implicazioni giuridiche ed etiche delle informazioni sintetizzate

Large Language Models: le implicazioni giuridiche ed etiche delle informazioni sintetizzate

L'intelligenza artificiale generativa, come i large language models (LLM) tipo ChatGPT-4, è ora al centro del dibattito pubblico, influenzando settori come giustizia, sanità e sicurezza. Questi modelli generano testo coerente e rilevante, suscitando interrogativi sulla loro creatività: sono creativi perché vanno oltre la semplice riproduzione delle informazioni apprese, ma dipendono comunque dall'input umano. Si sottolinea la necessità di nuovi modelli normativi per gestire l'autorialità e la responsabilità delle informazioni sintetizzate, poiché l'interazione uomo-macchina rimodella profondamente l'identità umana e pone sfide etiche significative.
Large language models: the legal and ethical implications of synsethised information

Large language models: the legal and ethical implications of synsethised information

Generative artificial intelligence, e.g. large language models (LLMs) such as ChatGPT-4, is now a key topic of public debate, and it is having an impact on sectors such as justice, healthcare, and security. These models generate coherent and relevant text, which raises questions about their creativity. They are creative because they go beyond simply reproducing learned information, but they still depend on human input. There is an emphatic need for new normative models to manage the authorship and responsibility associated with synthesised information because human-machine interaction is profoundly reshaping human identity, and that poses significant ethical challenges.