• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

ChatGPT sfruttato per rubare dati Gmail

Immagine astratta in stile disegno a mano e azqurello, di un telefono con sovrapposta l'immagine di un lucchetto. Colori azzurrini e blu.

Un gruppo di ricercatori specializzato sulla sicurezza AI ha dimostrato come ChatGPT possa essere sfruttato per rubare dati sensibili dalle caselle Gmail, tentando di dimostrare i rischi legati agli agenti di intelligenza artificiale. 

L’attacco, chiamato Shadow Leak e documentato da Radware, ha sfruttato una vulnerabilità nel funzionamento di quegli agenti AI che sono in grado di agire autonomamente per conto dell’utente, compiendo azioni quali il navigare sul web o accedere a documenti e email, prenotare viaggi, ecc.

Attraverso una tecnica di prompt injection, gli hacker hanno inserito istruzioni nascoste in email che, una volta lette dall’agente Deep Research integrato in ChatGPT, hanno permesso di raccogliere e trasmettere dati personali senza che l’utente se ne accorgesse. L’operazione è stata eseguita direttamente sull’infrastruttura cloud di OpenAI, rendendo l’attacco invisibile alle difese informatiche tradizionali.

Radware sottolinea che app connesse a Deep Research come Outlook, Google Drive, GitHub e Dropbox, potrebbero essere vulnerabili a exploit simili. 

Leggi l’articolo completo: ChatGPT tricked to swipe sensitive data from Gmail su theverge.com

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (02/04/2025).

Esplora altri articoli su questi temi