Nel 2022, Payton Gendron ha ucciso 10 persone a Buffalo in un attacco motivato dall’odio razziale. Nel suo manifesto, l’attentatore ha dichiarato che la sua radicalizzazione è avvenuta “principalmente da Internet”, attraverso piattaforme come 4chan e Reddit, dove ha assorbito ideologie estremiste tramite meme e contenuti d’odio.
Di fronte a quest’episodio, l’organizzazione no-profit Everytown for Gun Safety ha intrapreso una strategia legale innovativa: invece di accusare le piattaforme per i contenuti che ospitano, le considera responsabili per come sono progettate. La loro tesi è che gli algoritmi di raccomandazione dovrebbero essere trattati come “prodotti difettosi” perché progettati per massimizzare il coinvolgimento degli utenti, creando dipendenza e indirizzando verso contenuti sempre più estremi. Questa nuova strategia aggira il problema puntando sulla progettazione delle piattaforme e raggirando la sezione 230 del Communication Decency Act con cui le Big Tech si sono sempre difese, proteggendole dalla responsabilità sui contenuti pubblicati dagli utenti.
Dunque, la causa, che coinvolge Meta, Amazon, Discord, 4chan e Reddit, ha riportato un primo segnale positivo: una giudice ha rifiutato la richiesta delle compagnie di archiviare il caso, riconoscendo che le piattaforme sono “progettate per creare dipendenza tra i giovani utenti” e hanno indirizzato specificamente Gendron verso contenuti estremisti, ma la questione rimane aperta.
Leggi l’articolo completo «L’algoritmo è un prodotto difettoso»: la strage di Buffalo e l’idea di una no-profit per inchiodare le Big Tech su Il Corriere della Sera.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

