Tag: Responsabilità
Tag: Responsabilità
-

OpenAI non è responsabile delle allucinazioni di ChatGPT
Un tribunale della Georgia chiarisce la responsabilità di OpenAI sugli errori di ChatGPT:Gli utenti hanno il doverei verificare i contenuti.
-

OpenAI aggiorna ‘Model Spec’, il codice etico per l’addestramento dell’IA
OpenAI ha aggiornato "Model Spec", un codice etico per l'addestramento degli LLM. Leggi qui...
-

L’Intelligenza Artificiale «spiegabile» come “Agenzia Artificiale” nelle mani dell’artefice?
L’Intelligenza Artificiale spiegabile rende l’IA comprensibile e affidabile, evitando black-box opache. Umano e IA cooperano: l’uno guida con etica, l’altra potenzia con efficienza.
-

Linee guida IA generativa: uso responsabile nella ricerca scientifica
L'IA generativa sta trasformando la ricerca scientifica con grossi rischi etici. Servono linee guida per un uso responsabile e trasparente.
-

L’intelligenza artificiale e l’autonomia nella ricerca scientifica
L’AI generativa sta rivoluzionando la ricerca scientifica, accelerando scoperte ma ponendo sfide etiche su autonomia, responsabilità e impatto sulla conoscenza.
-

Piani di creatività. Umano/artificiale
L'IA come ChatGPT migliora creatività e conoscenza elaborando dati umani. Serve un uso responsabile per evitare disinformazione, mantenendo equilibrio e controllo umano.
-

Google DeepMind e la teoria dell’appropriatezza per l’IA
DeepMind, Mila e Max Planck Institute, hanno sviluppato una teoria dell'appropriatezza dell’IA generativa nell’adattarsi ai contesti sociali.
-

Solo lo scetticismo informato ci aiuterà a convivere con le IA
Il dibattito sull'IA oscilla tra scetticismo e consapevolezza. Realismo e prudenza sono essenziali. Leggi l'articolo su MagIA.


