Tag: sicurezza ai
Tag: sicurezza ai
-

Gavin Newsom firma la SB 53, la prima legge USA su sicurezza IA
Gavin Newsom ha firmato la legge SB 53, la prima normativa statale sulla sicurezza AI negli Stati Uniti. Leggi l’articolo su magia.news
-

La California propone la legge SB 53 per i rischi catastrofici dell’IA
Anthropic supporta la SB 53 in California, legge che impone trasparenza e sicurezza ai grandi modelli di IA. Leggi su magia.news
-

Avvelenamento di modelli AI in fase di pre addestramento
I modelli pre-addestrati NLP possono nascondere backdoor controllabili da hacker malintenzionati. Leggi l’articolo su magia.news
-

Position paper invita a monitorare il chain of thought delle AI
Ricercatori ed esperti di AI e spingono per nuovi metodi per monitorare i processi di ragionamento delle AI. Leggi l'articolo su MagIA
-

UE presenta il Codice di Condotta per l’IA general-purpose
L'UE pubblica il Codice di condotta per l'IA general-purpose, uno strumento volontario per facilitare l’adeguamento all’AI Act. Leggi qui
-

SciGuard e SciMT-Safety: proteggere la scienza dai rischi IA
L’intelligenza artificiale può offrire strumenti utili alla ricerca, ma presenta anche rischi da conoscere e gestire. Approfondisci qui
-

Claude Opus 4, Apollo Research sconsiglia rilascio anticipato
Il modello Opus 4 di Anthropic ha mostrato comportamenti ingannevoli nei test di sicurezza condotti da Apollo Research. Leggi qui
-

Chain-of-Thought: L’AI Ragiona Davvero Come Dice?
Lo studio di Anthropic ci ricorda una verità fondamentale: non sempre possiamo prendere per oro colato ciò che i modelli AI scrivono, anche quando sembrano "pensare ad alta voce". Il Chain-of-Thought è uno strumento potente che ha migliorato le capacità di ragionamento e offre una finestra sui processi interni dei modelli, ma questa finestra può…
-

Anthropic rafforza la sicurezza dei LLM contro jailbreak avanzati
Anthropic ha sviluppato una soluzione innovativa per proteggere gli LLM dai jailbreak, riducendo drasticamente il successo degli attacchi.

