Questo testo è la traduzione di un articolo a firma Jeff Horwitz e Katherine Blunt apparso sul Wall Street Journal (qui la versione archiviata e libera da muri). È stato tradotto dal valente deepl.com e successivamente riveduto e corretto dal sottoscritto (sono andato veloce, se c’è qualcosa che non quadra vi prego di segnalarmelo).
Instagram, il popolare sito di social media di proprietà di Meta Platforms, contribuisce a collegare e promuovere una vasta rete di account apertamente dedicati alla commissione e all’acquisto di contenuti sessuali di minori, secondo le indagini del Wall Street Journal e i ricercatori della Stanford University e della University of Massachusetts Amherst.
I pedofili utilizzano da tempo Internet, ma a differenza dei forum e dei servizi di trasferimento file che si rivolgono a persone interessate a contenuti illeciti, Instagram non si limita a ospitare queste attività. I suoi algoritmi le promuovono. Instagram mette in contatto i pedofili e li guida verso i venditori di contenuti attraverso sistemi di raccomandazione che eccellono nel collegare coloro che condividono interessi di nicchia, hanno scoperto il Journal e i ricercatori accademici.
Sebbene non siano visibili per la maggior parte degli utenti della piattaforma, gli account sessualizzati su Instagram sono sfacciatamente interessati. I ricercatori hanno scoperto che Instagram permetteva alle persone di cercare hashtag espliciti come #pedowhore e #preteensex e li collegava ad account che usavano questi termini per pubblicizzare materiale pedopornografico in vendita. Tali account spesso affermano di essere gestiti dai bambini stessi e utilizzano handle apertamente sessuali che incorporano parole come «piccola sgualdrina per te».
Gli account Instagram che offrono la vendita di materiale sessuale illecito in genere non lo pubblicano apertamente, ma pubblicano «menù» di contenuti. Alcuni account invitano gli acquirenti a commissionare atti specifici. Alcuni menù includono frammenti di video di bambini che si fanno del male e «immagini di minori che compiono atti sessuali con animali», hanno scoperto i ricercatori dello Stanford Internet Observatory. Al giusto prezzo, i bambini sono disponibili per «incontri» di persona.
La promozione di contenuti sessuali per minorenni viola le regole stabilite da Meta e dalle leggi federali.
In risposta alle domande del Journal, Meta ha riconosciuto i problemi riscontrati nelle sue operazioni di controllo e ha dichiarato di aver istituito una task force interna per affrontare le questioni sollevate. «Lo sfruttamento dei minori è un crimine orribile», ha dichiarato l’azienda, aggiungendo: «Stiamo continuamente studiando modi per difenderci attivamente da questo comportamento».
Meta ha dichiarato di aver eliminato 27 reti pedofile negli ultimi due anni e di avere in programma altre rimozioni. Da quando ha ricevuto le richieste del Journal, la piattaforma ha dichiarato di aver bloccato migliaia di hashtag che sessualizzano i bambini, alcuni con milioni di post, e di aver limitato i suoi sistemi dal raccomandare agli utenti la ricerca di termini noti per essere associati ad abusi sessuali. Ha dichiarato che sta anche lavorando per evitare che i suoi sistemi raccomandino ad adulti potenzialmente pedofili di connettersi tra loro o di interagire con i contenuti degli altri.
Alex Stamos, a capo dello Stanford Internet Observatory e responsabile della sicurezza di Meta fino al 2018, ha affermato che per tenere sotto controllo anche gli abusi più evidenti sarà probabilmente necessario uno sforzo prolungato. «Il fatto che un team di tre accademici con accesso limitato possa trovare una rete così vasta dovrebbe mettere in allarme Meta», ha dichiarato, sottolineando che l’azienda dispone di strumenti molto più efficaci per mappare la propria rete di pedofili rispetto agli esterni. «Spero che l’azienda reinvesta in investigatori umani», ha aggiunto.
Gli ostacoli tecnici e legali rendono difficile per chiunque al di fuori di Meta misurare con precisione la portata della rete. Poiché le leggi sui contenuti pedopornografici sono estremamente ampie, indagare anche solo sulla promozione aperta di tali contenuti su una piattaforma pubblica è giuridicamente delicato.
Nel suo reportage, il Journal ha consultato esperti accademici sulla sicurezza online dei minori. L’Internet Observatory di Stanford, una divisione del Cyber Policy Center dell’università incentrata sull’abuso dei social media, ha prodotto un’analisi quantitativa indipendente delle funzioni di Instagram che aiutano gli utenti a connettersi e a trovare contenuti. Il Journal si è rivolto anche al Rescue Lab dell’UMass, che ha valutato come i pedofili su Instagram si inseriscano nell’ecosistema più ampio dello sfruttamento dei minori online. Utilizzando metodi diversi, entrambe le entità sono state in grado di identificare rapidamente le comunità su larga scala che promuovono l’abuso sessuale criminale.
Gli account di prova creati dai ricercatori, che hanno visualizzato un singolo account della rete, sono stati immediatamente colpiti da raccomandazioni «suggerite per te» di presunti venditori e acquirenti di contenuti sessuali per bambini, nonché di account che collegavano a siti di scambio di contenuti fuori dalla piattaforma. È bastato seguire una manciata di queste raccomandazioni per inondare un account di prova di contenuti che sessualizzano i bambini.
Lo Stanford Internet Observatory ha utilizzato hashtag associati al sesso minorile per trovare 405 venditori di quello che i ricercatori hanno definito materiale pedopornografico «autogenerato», ovvero account gestiti presumibilmente da bambini stessi, alcuni dei quali dichiarano di avere addirittura 12 anni. Secondo i dati raccolti tramite Maltego, un software di mappatura della rete, 112 di questi account di venditori avevano collettivamente 22.000 follower unici.
I creatori e gli acquirenti di contenuti sessuali per minorenni sono solo un angolo di un ecosistema più ampio dedicato ai contenuti sessualizzati per bambini. Altri account della comunità pedofila su Instagram aggregano meme a favore della pedofilia o discutono del loro accesso ai bambini. Gli attuali e gli ex dipendenti di Meta che hanno lavorato a iniziative di sicurezza per i bambini su Instagram stimano che il numero di account che esistono principalmente per seguire tali contenuti sia dell’ordine delle centinaia di migliaia, se non dei milioni.
Un portavoce di Meta ha dichiarato che l’azienda cerca attivamente di rimuovere tali utenti, avendo eliminato 490.000 account per violazione delle politiche di sicurezza dei bambini nel solo mese di gennaio.
«Instagram è una rampa di accesso a luoghi di Internet dove gli abusi sessuali sui minori sono più espliciti», ha dichiarato Brian Levine, direttore del Rescue Lab dell’UMass, che si occupa di ricerche sulla vittimizzazione dei minori online e di costruire strumenti forensi per combatterla. Levine è autore di un rapporto del 2022 per il National Institute of Justice, il braccio di ricerca del dipartimento di giustizia, sullo sfruttamento dei minori su Internet.
Instagram, che si stima abbia più di 1,3 miliardi di utenti, è particolarmente popolare tra gli adolescenti. I ricercatori di Stanford hanno trovato attività simili di sfruttamento sessuale su altre piattaforme sociali più piccole, ma hanno affermato che il problema su Instagram è particolarmente grave. «La piattaforma più importante per queste reti di acquirenti e venditori sembra essere Instagram», hanno scritto in un rapporto che sarà pubblicato il 7 giugno.
Instagram ha dichiarato che le sue statistiche interne mostrano che gli utenti vedono lo sfruttamento minorile in meno di 1 su 10 mila post visualizzati.
Lo sforzo delle piattaforme di social media e delle forze dell’ordine per combattere la diffusione della pedopornografia online si concentra in gran parte sulla ricerca di immagini e video confermati, noti come materiale pedopornografico, o CSAM, che sono già noti per essere in circolazione. Il National Center for Missing & Exploited Children, un’organizzazione statunitense senza scopo di lucro che collabora con le forze dell’ordine, gestisce un database di impronte digitali per tali immagini e video e una piattaforma per la condivisione di tali dati tra le società Internet.
Gli algoritmi delle società Internet verificano le impronte digitali delle immagini pubblicate sulle loro piattaforme rispetto a tale elenco e riferiscono al centro quando le rilevano, come richiesto dalla legge federale statunitense. Nel 2022, il centro ha ricevuto 31,9 milioni di segnalazioni di immagini pedopornografiche, soprattutto da parte delle società Internet, con un aumento del 47% rispetto a due anni prima.
Meta, con oltre 3 miliardi di utenti attraverso le sue applicazioni, che includono Instagram, Facebook e WhatsApp, è in grado di rilevare questo tipo di immagini note se non sono criptate. Meta ha ricevuto l’85% delle segnalazioni di pornografia infantile presentate al centro, di cui circa 5 milioni da Instagram.
Lo screening automatico di Meta per i contenuti esistenti sullo sfruttamento dei minori non è in grado di rilevare nuove immagini o sforzi per pubblicizzarne la vendita. Per prevenire e individuare tali attività non è sufficiente esaminare le segnalazioni degli utenti, ma è necessario rintracciare e interrompere le reti di pedofili, come affermano i ricercatori di Stanford e i loro collaboratori attuali e passati. L’obiettivo è rendere difficile per questi utenti connettersi tra loro, trovare contenuti e reclutare vittime.
Questo lavoro è fondamentale perché le forze dell’ordine non hanno le risorse per indagare su più di una piccola parte delle segnalazioni che il NCMEC riceve, ha detto Levine dell’UMass. Ciò significa che le piattaforme hanno la responsabilità primaria di impedire che la comunità si formi e normalizzi gli abusi sessuali sui minori. Secondo Stanford, Meta ha faticato più di altre piattaforme a contrastare questi sforzi, sia a causa della debolezza nell’applicazione delle norme, sia per le caratteristiche di progettazione della piattaforma, che favoriscono la scoperta di materiale legale e illecito.
Il team di Stanford ha trovato 128 account che offrivano materiale pedopornografico su Twitter, meno di un terzo di quelli trovati su Instagram, che ha una base di utenti complessiva molto più ampia di Twitter. Il team ha scoperto che Twitter non ha raccomandato tali account nella stessa misura di Instagram e li ha eliminati molto più rapidamente.
Tra le altre piattaforme popolari tra i giovani, Snapchat è utilizzata principalmente per la messaggistica diretta, quindi non aiuta a creare reti. E la piattaforma di TikTok è una di quelle in cui «questo tipo di contenuti non sembra proliferare», si legge nel rapporto di Stanford.
Twitter non ha risposto alle richieste di commento. TikTok e Snapchat hanno rifiutato di commentare.
David Thiel, capo tecnologo dello Stanford Internet Observatory, ha dichiarato: «Il problema di Instagram si riduce alle funzioni di scoperta dei contenuti, alle modalità di raccomandazione degli argomenti e a quanto la piattaforma si affidi alla ricerca e ai collegamenti tra gli account». Thiel, che in precedenza ha lavorato a Meta su questioni di sicurezza, ha aggiunto: «È necessario mettere dei paletti per far sì che qualcosa ad alta intensità di crescita sia anche nominalmente sicuro, e Instagram non l’ha fatto».
La piattaforma ha faticato a presidiare una tecnologia di base: le parole chiave. Gli hashtag sono una parte centrale della scoperta dei contenuti su Instagram, consentendo agli utenti di taggare e trovare i post di interesse per una particolare comunità, da argomenti ampi come #fashion o #nba ad altri più ristretti come #embroidery o #spelunking.
Anche i pedofili hanno i loro hashtag preferiti. Termini di ricerca come #pedobait e variazioni di #mnsfw («minore non sicuro per il lavoro») sono stati utilizzati per etichettare migliaia di post dedicati alla pubblicità di contenuti sessuali con bambini, rendendoli facilmente reperibili dagli acquirenti, hanno scoperto i ricercatori accademici. In seguito alle domande del Journal, Meta ha dichiarato di essere in procinto di vietare tali termini.
In molti casi, Instagram ha permesso agli utenti di cercare termini che i suoi algoritmi sanno essere associati a materiale illegale. In questi casi, una schermata a comparsa per gli utenti avvertiva che «Questi risultati potrebbero contenere immagini di abusi sessuali su minori», sottolineando che la produzione e il consumo di tale materiale causano «danni estremi» ai bambini. La schermata offriva agli utenti due opzioni: «Ottieni risorse» e «Vedi comunque i risultati».
In risposta alle domande del Journal, Instagram ha rimosso l’opzione che consente agli utenti di visualizzare i risultati della ricerca di termini che potrebbero produrre immagini illegali. L’azienda ha rifiutato di dire perché aveva offerto l’opzione.
I ricercatori hanno scoperto che gli account pedofili su Instagram mescolano sfacciataggine e sforzi superficiali per nascondere la loro attività. Alcune emoji funzionano come una sorta di codice, come l’immagine di una mappa — che sta per «persona attratta da un minore» — o una di «pizza al formaggio», che condivide le iniziali con «pornografia infantile», secondo Levine dell’UMass. Molti si dichiarano «amanti delle piccole cose della vita».
Gli account si identificano come «venditore» o «v3nditore» e molti dichiarano la forma di pagamento preferita nel loro profilo. Gli account di questi venditori spesso comunicano la presunta età del bambino dicendo che è «al capitolo 14» o «all’età di 31 anni» seguito da un’emoji di una freccia al contrario.
Alcuni dei account riportavano indizi di traffico sessuale, ha detto Levine dell’UMass, come quello che mostrava un’adolescente con la parola WHORE scarabocchiata sul viso.
Alcuni utenti che dichiarano di vendere contenuti sessuali autoprodotti dicono di essere «senza volto» — offrendo immagini solo dal collo in giù — a causa di esperienze passate in cui i clienti li hanno perseguitati o ricattati. Altri corrono il rischio, facendo pagare un premio per immagini e video che potrebbero rivelare la loro identità mostrando il loro volto.
Molti dei account mostrano utenti con cicatrici da taglio all’interno delle braccia o delle cosce, e alcuni di loro citano abusi sessuali subiti in passato.
Anche solo un contatto di sfuggita con un account della comunità pedofila di Instagram può far sì che la piattaforma inizi a consigliare agli utenti di unirsi ad essa.
Sarah Adams, madre canadese di due figli, ha creato un pubblico su Instagram che discute dello sfruttamento dei bambini e dei pericoli dell’eccesso di condivisione sui social media. Data la sua attenzione, i follower di Adams a volte le inviano cose inquietanti che hanno incontrato sulla piattaforma. A febbraio, ha raccontato, uno le ha inviato un messaggio con un account marchiato con il termine «incesto di bambini».
Adams ha raccontato di essere entrata nell’account — una raccolta di meme a favore dell’incesto con più di 10.000 follower — solo per i pochi secondi necessari alla segnalazione a Instagram, poi ha cercato di dimenticarsene. Ma nei giorni successivi ha iniziato a sentire genitori inorriditi. Quando hanno guardato il profilo Instagram di Adams, la donna ha detto che, a seguito del contatto di Adams con l’account, venivano loro consigliati «bambini incestuosi».
Un portavoce di Meta ha dichiarato che i «bambini incestuosi» violano le sue regole e che Instagram ha commesso un errore di applicazione. L’azienda ha dichiarato che intende occuparsi di tali raccomandazioni inappropriate nell’ambito della task force per la sicurezza dei bambini di recente costituzione.
Come per la maggior parte delle piattaforme di social media, il nucleo delle raccomandazioni di Instagram si basa su modelli comportamentali e non sulla corrispondenza tra gli interessi di un utente e argomenti specifici. Questo approccio è efficace per aumentare la rilevanza delle raccomandazioni e funziona in modo più affidabile per le comunità che condividono un insieme ristretto di interessi.
In teoria, questa stessa ristrettezza della comunità pedofila su Instagram dovrebbe rendere più facile per Instagram mappare la rete e prendere provvedimenti per combatterla. I documenti precedentemente esaminati dal Journal mostrano che Meta ha svolto questo tipo di lavoro in passato per sopprimere le reti di account che ritiene dannose, come nel caso degli account che promuovono la delegittimazione delle elezioni negli Stati Uniti dopo la rivolta del 6 gennaio in Campidoglio.
Come altre piattaforme, Instagram afferma di ricorrere ai suoi utenti per individuare gli account che violano le regole. Ma questi sforzi non sono sempre stati efficaci. A volte le segnalazioni di nudità di un bambino da parte degli utenti sono rimaste senza risposta per mesi, secondo un’analisi di decine di segnalazioni presentate nell’ultimo anno da numerosi sostenitori della sicurezza dei bambini.
All’inizio di quest’anno, un attivista anti-pedofilia ha scoperto un account Instagram che sosteneva di appartenere a una ragazza che vendeva contenuti sessuali per minorenni, tra cui un post che dichiarava: «Questa adolescente è pronta per voi pervertiti». Quando l’attivista ha segnalato l’account, Instagram ha risposto con un messaggio automatico che diceva: «A causa dell’elevato volume di segnalazioni che riceviamo, il nostro team non è stato in grado di esaminare questo post».
Dopo che lo stesso attivista ha segnalato un altro post, che ritraeva una ragazza poco vestita con una didascalia a sfondo sessuale, Instagram ha risposto: «Il nostro team di revisione ha riscontrato che il post [dell’account] non va contro le nostre linee guida della comunità». La risposta suggeriva all’utente di nascondere l’account per evitare di vederne il contenuto.
Un portavoce di Meta ha riconosciuto che Meta ha ricevuto le segnalazioni e non ha agito di conseguenza. Una revisione del modo in cui l’azienda gestiva le segnalazioni di abusi sessuali su minori ha rilevato che un difetto del software impediva l’elaborazione di una parte sostanziale delle segnalazioni degli utenti e che il personale di moderazione dell’azienda non applicava correttamente le regole della piattaforma, ha dichiarato il portavoce. L’azienda ha dichiarato di aver risolto il baco nel suo sistema di segnalazione e di aver organizzato una nuova formazione per i moderatori dei contenuti.
Anche quando Instagram rimuove gli account che vendono contenuti a sfondo sessuale minorile, non sempre questi vengono eliminati.
Secondo le linee guida interne della piattaforma, le sanzioni per la violazione degli standard della comunità sono generalmente applicate agli account, non agli utenti o ai dispositivi. Poiché Instagram consente agli utenti di gestire più account collegati, il sistema consente di eludere facilmente l’applicazione delle norme. Gli utenti elencano regolarmente gli handle degli account «di riserva» nei loro profili, consentendo loro di riprendere a postare per lo stesso gruppo di follower se Instagram li rimuove.
In alcuni casi, i sistemi di raccomandazione di Instagram hanno ostacolato direttamente gli sforzi del proprio staff di sicurezza. Dopo che l’azienda ha messo in atto un giro di vite nei confronti di link provenienti da uno specifico servizio di trasferimento di file criptati noto per la trasmissione di contenuti pedopornografici, Instagram ha bloccato le ricerche del suo nome. I suggerimenti di hashtag guidati dall’intelligenza artificiale di Instagram non hanno recepito il messaggio. Nonostante si rifiutasse di mostrare risultati per il nome del servizio, la funzione di riempimento automatico della piattaforma consigliava agli utenti di provare varianti del nome con le parole «boys» e «CP» aggiunte alla fine. L’azienda ha cercato di disabilitare questi hashtag nella sua risposta alle richieste del Journal. Ma nel giro di pochi giorni Instagram ha nuovamente raccomandato nuove variazioni del nome del servizio, che hanno portato anche ad account che vendevano presunti contenuti a sfondo sessuale.
Dopo il controllo iniziale della società sugli account portati alla sua attenzione da Stanford e dal Journal, Levine dell’UMass ha controllato alcuni degli account di venditori minorenni rimasti su Instagram. Come in precedenza, la visualizzazione anche di uno solo di essi ha indotto Instagram a consigliarne di nuovi. I suggerimenti di Instagram stavano aiutando a ricostruire la rete che il personale di sicurezza della piattaforma stava cercando di smantellare.
Un portavoce di Meta ha dichiarato che i suoi sistemi per prevenire tali raccomandazioni sono attualmente in fase di realizzazione. Levine ha definito inaccettabile il ruolo di Instagram nella promozione di contenuti e account pedofili.
«Tirate il freno d’emergenza», ha detto. «I benefici economici valgono i danni per questi bambini?».
Scrivete a Jeff Horwitz all’indirizzo jeff.horwitz@wsj.com e a Katherine Blunt all’indirizzo katherine.blunt@wsj.com.