Un fenomeno in crescita: il cyberbullismo
Il cyberbullismo è una forma di aggressione reiterata, intenzionale e sistematica, attuata tramite mezzi elettronici come social network, app di messaggistica e piattaforme online. A differenza del bullismo tradizionale, si caratterizza per l’anonimato dell’aggressore, la permanenza nel tempo dei contenuti offensivi, la loro potenziale viralità e la capacità di invadere anche gli spazi più intimi della vittima, come la propria casa (Slonje, Smith & Frisén, 2013). Piattaforme come Instagram, TikTok, Discord e Reddit possono diventare ambienti tossici, in cui la reputazione di una persona può essere rapidamente compromessa attraverso commenti offensivi, meme denigratori, minacce o la diffusione non consensuale di immagini intime.
La rapidità con cui si diffonde il contenuto digitale rende difficile intervenire in modo tempestivo. Inoltre, molti adolescenti esitano a denunciare episodi di cyberbullismo per paura di ritorsioni o per timore di non essere creduti dagli adulti. Questo scenario evidenzia la necessità di strumenti automatici ed efficaci per il monitoraggio dei comportamenti online, ed è proprio in questo contesto che l’intelligenza artificiale può offrire un contributo significativo.
Secondo i dati dell’Osservatorio Indifesa (Terre des Hommes, 2023), il 22 % degli adolescenti italiani ha dichiarato di essere stato vittima di cyberbullismo almeno una volta, con conseguenze che vanno dalla perdita di autostima a disturbi d’ansia, depressione e isolamento sociale. Le vittime, spesso, non trovano adeguati canali di supporto né nei contesti scolastici né in famiglia. Questo fenomeno, alimentato dall’anonimato e dalla pervasività della rete, ha un impatto devastante sulla vita di molti giovani. In questo contesto, l’intelligenza artificiale emerge come uno strumento promettente per contrastarlo, ma la vera chiave di volta risiede nell’educazione digitale.
A differenza del bullismo «tradizionale», il cyberbullismo può colpire in qualsiasi momento e luogo, anche negli spazi privati della vittima. È amplificato dalla viralità dei contenuti digitali e dall’anonimato degli aggressori. Inoltre, i contenuti restano spesso accessibili a lungo, provocando danni duraturi alla salute mentale e all’identità sociale di chi li subisce.
Secondo i dati più recenti, il cyberbullismo è in crescita tra gli adolescenti, spesso sottovalutato dagli adulti e raramente segnalato. Questo rende essenziale sviluppare strumenti di prevenzione e intervento, anche attraverso le potenzialità offerte dall’intelligenza artificiale.
Quando l’algoritmo veste i panni del bullo
Nuove forme di violenza digitale stanno emergendo grazie – o a causa – di tecniche di generazione di contenuti: deepfake, chatbot offensivi, filtri che distorcono l’immagine dell’altro. Il 2025 ha visto crescere i casi di «deepfake bullying»: video e foto falsificate che umiliano la vittima e possono diventare virali in poche ore. Un report di Thorn rivela che circa un adolescente su dieci conosce coetanei che hanno creato nudi sintetici di compagni di classe con tool di IA generativa. E non si tratta di episodi isolati: la National Education Association ha registrato un’impennata di segnalazioni di deepfake nelle scuole statunitensi, un fenomeno che i ricercatori definiscono cyber-humiliation on steroids.

Con l’adozione dell’AI Act (13 marzo 2024) e la pubblicazione del regolamento 2024/1689, l’UE ha fissato un principio chiave: gli algoritmi che possono minacciare diritti fondamentali – inclusa la dignità dei minori – rientrano nella categoria «ad alto rischio» e devono essere sottoposti a valutazioni d’impatto, trasparenza e supervisione umana. Per le piattaforme ciò significa rendere comprensibili i criteri di filtraggio, offrire meccanismi di contestazione rapida e prevedere sanzioni in caso di inerzia. In concreto, l’AI Act impone audit periodici e label di conformità sui modelli impiegati nei servizi per minori, una prima mondiale destinata a fare scuola anche fuori dall’Europa.
Sul piano nazionale, la legge 71/2017 è stata rafforzata da linee guida del Ministero dell’Istruzione (2024) che impongono piani d’intervento specifici e referenti anti-bullismo formati. Il quadro, tuttavia, resta in evoluzione: la tecnologia corre più veloce dei codici.
Intelligenza artificiale: una risorsa per la prevenzione
Il vero antidoto, sostengono pedagogisti e psicologi, è trasformare la cittadinanza digitale in una competenza di base, come leggere o fare di conto. Le nuove Linee guida sull’Educazione civica (settembre 2024) rendono obbligatorie 33 ore annue di educazione civica digitale in ogni scuola italiana, con moduli dedicati a IA, sicurezza online e pensiero critico. A livello UE, l’iniziativa dialoga con il Digital Education Action Plan 2021-2027, che punta a garantire inclusione, accesso alle infrastrutture e alfabetizzazione digitale di base in tutti i cicli scolastici.
Negli ultimi anni, l’IA ha mostrato grande potenziale nell’identificare comportamenti devianti nel mondo digitale. Sistemi basati su Natural Language Processing (NLP) analizzano milioni di messaggi, commenti e post per rilevare linguaggio offensivo, minacce o incitamento all’odio. Le piattaforme social utilizzano algoritmi capaci di bloccare o segnalare contenuti ritenuti pericolosi, a volte prima ancora che vengano visualizzati da altri utenti.
L’IA non si limita ai testi: può riconoscere immagini e video inappropriati, tra cui contenuti pornografici condivisi senza consenso, deepfake denigratori o immagini alterate per ridicolizzare una persona. Le reti neurali convoluzionali (CNN) vengono utilizzate per scandagliare il contenuto visivo alla ricerca di elementi potenzialmente dannosi.
In alcuni contesti scolastici o clinici, modelli predittivi basati sull’IA possono identificare segnali di disagio psicologico, monitorando cambiamenti nel linguaggio digitale, nella frequenza delle interazioni sociali o nel comportamento online. In questo modo, si possono attivare interventi precoci, coinvolgendo genitori, insegnanti e psicologi prima che la situazione degeneri.
I limiti dell’automazione
Affidarsi interamente all’IA per contrastare il cyberbullismo comporta gravi rischi. In primo luogo, gli algoritmi possono generare falsi positivi, segnalando come offensivo ciò che non lo è (per esempio ironia, linguaggio gergale o contenuti contestuali), oppure falsi negativi, lasciando passare messaggi velati di odio.
L’analisi continua del comportamento online può trasformarsi in una forma di sorveglianza pervasiva, compromettendo il diritto alla privacy e incentivando l’autocensura, soprattutto tra i giovani. Un ambiente scolastico dove tutto è monitorato automaticamente può risultare più oppressivo che protettivo.
C’è poi il rischio di bias algoritmici: se i dati usati per addestrare l’IA riflettono stereotipi sociali, l’intelligenza artificiale tenderà a replicarli. Alcuni studi mostrano che le espressioni utilizzate da comunità LGBTQ+ o da minoranze etniche vengono censurate più frequentemente, anche in assenza di contenuti realmente offensivi.
Educare alla consapevolezza digitale
È evidente che la tecnologia da sola non basta. Serve una risposta integrata che metta al centro le persone. L’alfabetizzazione digitale deve diventare parte integrante dell’educazione scolastica, insieme all’educazione affettiva e civica. I ragazzi devono imparare a navigare con consapevolezza, riconoscere i pericoli, ma anche sviluppare empatia, responsabilità e rispetto.
È fondamentale anche coinvolgere attivamente studenti, docenti, famiglie e comunità nella progettazione dei sistemi digitali: non solo come utenti, ma come co-autori di tecnologie che rispettino i diritti e i bisogni di tutti. Il co-design può favorire soluzioni più eque, trasparenti e partecipative.
La sfida, oggi, è duplice: addestrare gli algoritmi a riconoscere l’odio e addestrare noi a riconoscere l’altro. Solo così la rivoluzione digitale potrà dirsi davvero inclusiva. E il tap che parte da un adolescente non sarà più il detonatore di una ferita, ma l’inizio di un racconto diverso.
Internet e le nuove tecnologie hanno trasformato radicalmente il modo in cui interagiamo, apprendiamo e ci relazioniamo. Se da un lato hanno aperto infinite possibilità, dall’altro hanno portato alla luce nuove sfide, tra cui il cyberbullismo. Questo fenomeno, alimentato dall’anonimato e dalla pervasività della rete, ha un impatto devastante sulla vita di molti giovani. In questo contesto, l’intelligenza artificiale emerge come uno strumento promettente per contrastarlo, ma la vera chiave di volta risiede nell’educazione digitale.
Affrontare il cyberbullismo non significa solo proteggere, ma anche educare alla cittadinanza digitale. Questo richiede un ecosistema educativo allargato che coinvolga famiglie, scuole, istituzioni, media e piattaforme digitali. È necessario promuovere una cultura della corresponsabilità, in cui ciascun attore si senta coinvolto nella costruzione di ambienti digitali più giusti, inclusivi e umani.
Il cyberbullismo rappresenta una delle sfide educative e sociali più complesse dell’era digitale. Non basta contrastarlo con misure repressive: serve un impegno educativo profondo, fondato su valori di rispetto, empatia e cittadinanza. L’educazione digitale, intesa come strumento di emancipazione e prevenzione, deve diventare una priorità trasversale nei percorsi formativi. Solo così potremo formare generazioni capaci non solo di abitare, ma anche di migliorare il mondo digitale in cui vivono.

Conclusione: per un’alleanza umana e tecnologica
Il rapporto tra cyberbullismo e intelligenza artificiale riflette una tensione cruciale del nostro tempo: da un lato la spinta all’innovazione tecnologica, dall’altro la necessità di tutelare la dignità umana. L’IA può essere una formidabile alleata nella prevenzione del bullismo online, ma deve essere progettata, implementata e regolata con grande attenzione.
Non possiamo delegare alle macchine il compito di educare, comprendere o proteggere: l’empatia, il dialogo e la relazione umana rimangono insostituibili. La tecnologia deve affiancare e potenziare l’azione educativa, non sostituirla. Allo stesso tempo, serve una regolamentazione chiara sull’uso dell’IA nei contesti sensibili, per evitare abusi e garantire trasparenza.
In ultima analisi, costruire ambienti digitali sicuri, rispettosi e accoglienti richiede una responsabilità condivisa tra innovatori, educatori, legislatori e cittadini. Solo attraverso un uso critico, partecipativo e umano della tecnologia potremo trasformare l’intelligenza artificiale da spettatrice o complice in protagonista positiva di una nuova cittadinanza digitale.
Bibliografia
- Legge 29 maggio 2017, n. 71 – Disposizioni a tutela dei minori per la prevenzione e il contrasto del fenomeno del cyberbullismo.
- Livingstone, S., & Haddon, L. (2009). Kids Online: Opportunities and Risks for Children. Policy Press.
- MIUR (2020). Linee guida per l’insegnamento dell’educazione civica.
- Nocentini, A., & Menesini, E. (2016). Cyberbullying: Definition and measurement. Zeitschrift für Psychologie, 224(2), 143–151.
- Pastorelli, C., Donato, F., & Milani, L. (2020). Educazione tra pari e promozione del benessere scolastico. Rivista di Psicologia dell’Educazione, 42(1), 45–60.
- Slonje, R., Smith, P. K., & Frisén, A. (2013). The nature of cyberbullying and strategies for prevention. Computers in Human Behavior, 29(1), 26–32.
- Terre des Hommes (2023). Rapporto Indifesa.
- UNESCO (2019). Guidelines on Digital Learning.
Immagini generate tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

