La rapida crescita dell’IA generativa comporta sicuramente grandi opportunità, ma anche rischi non indifferenti per la ricerca. Da un lato può accelerare la scoperta, migliorare l’efficienza e supportare la comunicazione multilingue. Tuttavia, dall’altro lato solleva anche preoccupazioni sulla disinformazione, l’uso improprio e l’integrità della ricerca. Per questo motivo e con l’obiettivo di guidare l’uso responsabile nella ricerca, il Forum dello Spazio europeo della ricerca ha sviluppato linee guida non vincolanti per ricercatori, organizzazioni e finanziatori.
Le linee guida per l’uso responsabile dell’IA generativa nella ricerca fanno riferimento a quadri etici europei consolidati, in particolare sul Codice di condotta europeo per l’integrità della ricerca e sul lavoro del Gruppo di esperti di alto livello sull’IA affidabile. Queste linee guida si basano su quattro principi fondamentali:
- affidabilità, per garantire qualità e rigore;
- onestà, con trasparenza sull’uso dell’IA;
- rispetto, per tutelare persone, dati, ambiente e diversità;
- responsabilità, che implica controllo umano e piena assunzione delle conseguenze della ricerca.
Guardando al futuro, le linee guida riconoscono l’imprevedibile evoluzione dell’IA generativa e le sue implicazioni sociali. Infatti, sono considerate un documento vivo, soggetto a continui aggiornamenti per rimanere attuale.
Leggi il documento completo: Living guidelines on the RESPONSIBLE USE OF GENERATIVE AI IN RESEARCH su comission.europa.eu.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

