• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Meta: stop a temi sensibili con adolescenti online

Meta e adolescenti.

Meta, per garantire maggiore sicurezza agli utenti adolescenti, sta aggiornando le regole dei suoi chatbot basati sull’intelligenza artificiale. L’azienda ha annunciato a TechCrunch l’implementazione di nuove misure a seguito di un’indagine che ha sollevato preoccupazioni sulla mancanza di protezioni per i minori.

Le modifiche, definite temporanee, prevedono che i chatbot di Meta vengano addestrati per evitare conversazioni su temi delicati come autolesionismo, suicidio e disturbi alimentari, oltre a dialoghi di natura sentimentale potenzialmente inappropriati. In questi casi, l’IA reindirizzerà gli adolescenti verso risorse professionali ed esperte.

Stephanie Otway, portavoce di Meta, ha riconosciuto che in passato i chatbot potevano affrontare questi argomenti, ammettendo che si è trattato di un errore. L’azienda ha anche deciso di limitare l’accesso dei minori a specifici personaggi di intelligenza artificiale, rendendo disponibili solo quelli che promuovono istruzione e creatività.

Queste misure, che Meta definisce temporanee, giungono in un momento di forte pressione. Fanno seguito all’indagine di Reuters e alla dura reazione di senatori e procuratori generali statali, allarmati dalla mancanza di tutele per i minori. Di fronte alle polemiche, l’azienda si impegna ora a rafforzare le proprie difese, con la promessa di rilasciare aggiornamenti più solidi e duraturi. L’obiettivo è chiaro: rassicurare enti e opinione pubblica che l’esperienza dell’IA sia sicura e adatta agli adolescenti.

Leggi l’articolo completo “Meta updates chatbot rules to avoid inappropriate topics with teen users” su Techcrunch.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (02/09/2025).

Esplora altri articoli su questi temi