Il WEF e i suoi partner affermano di lavorare per fornire “sicurezza digitale”, ma il Wall Street Journal ci ha appena mostrato che il partner Meta ha indirizzato i suoi clienti verso siti di abusi sessuali su minori

Non solo il partner è un problema enorme (fornirò il testo completo dell’articolo del WSJ), ma la “sicurezza digitale” è anche un eufemismo per la censura

L’impatto della fornitura di sicurezza digitale – secondo il World Economic Forum

Naturalmente, i problemi di un’identità digitale e di un passaporto sanitario sono:

  1. ulteriori funzionalità saranno rapidamente aggiunte, mettendo la vostra vita e tutte le vostre transazione su una rete connessa
  2. i vostri dati online possono essere rubati (in particolare i dati sanitari e bancari)
  3. il vostro denaro può essere disattivato o tassato a piacimento
  4. i vostri spostamenti e acquisti possono essere limitati
  5. la vostra rete di amicizie e i vostri associati saranno tutti annotati e tracciati
  6. la vostra famiglia potrebbe essere costretta a soffrire per comportamenti non graditi ai controllori. Mi dicono che in Cina il vostro punteggio di credito sociale determina se potete affittare o comprare una proprietà o se i vostri figli possono frequentare una buona scuola.

Ma rendiamolo appetibile: si tratta di diritti umani (capisci a me!)

*Sicurezza digitale: applicare i diritti umani nel mondo digitale*

La lotta ai contenuti dannosi online rappresenta un problema complesso. È una sfida continua combattere abusi e sfruttamento sessuale dei minori, terrorismo e incitamento all’odio, disinformazione e contenuti legati all’autolesionismo e al suicidio.

Con l’avvento delle nuove tecnologie, la necessità di trovare un equilibrio tra sicurezza e privacy nel mondo digitale e libertà di espressione rimane fondamentale.

Fornire esperienze online sicure e protette è essenziale per le imprese globali, i gruppi della società civile e i singoli individui. La Coalizione Globale per la Sicurezza Digitale del World Economic Forum sta riunendo un gruppo eterogeneo di leader per accelerare la cooperazione pubblico-privata per affrontare i contenuti e i comportamenti dannosi online.

I membri della coalizione hanno sviluppato i Principi globali sulla sicurezza digitale, che definiscono come i diritti umani dovrebbero essere tradotti nel mondo digitale. Il gruppo di lavoro della coalizione comprende rappresentanti di Microsoft, WeProtect Global Alliance, Meta, Amazon, Google, OHCHR (Ufficio dell’Alto Commissario delle Nazioni Unite per i diritti umani), Ofcom UK, Global Partners Digital.

I princìpi sono stati sviluppati attraverso consultazioni con i governi e le autorità di regolamentazione, principali social media e piattaforme tecnologiche, società tecnologiche per la sicurezza e rappresentanti della società civile e del mondo accademico.

I principi serviranno da guida per tutte le parti interessate nell’ecosistema digitale per promuovere la sicurezza digitale a livello politico, industriale e sociale. La collaborazione tra governi, aziende e coloro che sono coinvolti in iniziative civili e sociali è necessaria per garantire un impatto nel mondo reale.

In sintesi, i principi includono

  • Tutti i sostenitori dovrebbero collaborare per costruire un ambiente online sicuro, affidabile e inclusivo. [Include tutto ciò che vi riguarda – Nass]. Le politiche e il processo decisionale dovrebbero essere basati su prove, intuizioni e prospettive diverse. la trasparenza è importante e l’innovazione dovrebbe essere incoraggiata.
  • I governi solidali dovrebbero distinguere tra contenuti illegali e contenuti che sono leciti ma che possono essere dannosi e differenziare di conseguenza eventuali misure normative, garantire il rispetto della legge e delle politiche e proteggere tutti i diritti degli utenti. Dovrebbero sostenere le vittime e i sopravvissuti di abusi o danni.
  • I fornitori solidali di servizi online dovrebbero impegnarsi a rispettare le responsabilità in materia di diritti umani ed elaborare politiche per garantire che lo facciano, garantire che la sicurezza sia una priorità in tutta l’azienda e che sia incorporata come standard durante la progettazione delle funzionalità e collaborare con altri fornitori di servizi online. [In ogni caso, che cavolo intendono con la parola “sicurezza”?]

I principi riconoscono inoltre che i gruppi della società civile e le organizzazioni non governative svolgono un ruolo cruciale nel promuovere la sicurezza digitale e i diritti umani; essi forniscono preziose informazioni sull’impatto della sicurezza e della libertà online sulle comunità e sugli individui.

“Promuovere la sicurezza digitale è fondamentale per consentire alle persone di sfruttare al meglio il mondo digitale. Questi principi sono stati creati come un passo positivo e fattibile verso la creazione di un’esperienza digitale più sicura per tutti e Microsoft rimane impegnata a trovare soluzioni che raggiungano questo obiettivo e rispettino i diritti umani fondamentali.”

– Courtney Gregoire, Responsabile Capo della Sicurezza Digitale di Microsoft

I principi tengono in considerazione e cercano di integrare i principi esistenti, come i Principi Volontari per Contrastare lo Sfruttamento e l’Abuso di Minori Online, il Christchurch Call per eliminare contenuti online di natura estremista violenta e terrorista, i Santa Clara Principles, i Prinicipi di Sicurezza by Design del Commissario eSafety australiano, il quadro delle migliori pratiche del Digital Trust & Safety Partnership e molti altri.

“I governi, il settore privato e la società civile hanno tutti un ruolo importante da svolgere nella prevenzione degli abusi e dello sfruttamento online, in particolare nella protezione dei soggetti più vulnerabili della società. Questo nuovo insieme di principi fornisce un quadro importante per una risposta più efficace ai danni online, compreso il nostro lavoro per porre fine agli abusi sessuali sui minori online”

– Iain Drennan, Direttore esecutivo dell’Alleanza Globale WeProtect

Meta (il nuovo nome di Facebook) era uno dei principali partner del WEF (sopra) per promuovere la sicurezza digitale. Invece Meta, che possiede Instagram, ha facilitato le reti di pedofili sulla sua piattaforma, secondo una ricerca dettagliata dello staff dell’Osservatorio Internet di Stanford (e questi censori dovrebbero saperlo) e di un professore della University of Massachusetts, oltre che di esperti del panorama digitale come Alex Stamos, che ha fondato e gestisce il programma di Stanford. Il Wall Street Journal ha fatto un’indagine molto approfondita e non ha lasciato spazio a Meta per svicolare. Poiché il WSJ è dietro un paywall, fornirò di seguito l’intero articolo del 7 giugno.

https://www.wsj.com/articles/instagram-vast-pedophile-network-4ab7189

Instagram collega una vasta rete di pedofili. I sistemi dell’unità Meta per ospitare le comunità hanno guidato gli utenti verso contenuti sessuali di minori; la compagnia dice che sta migliorando i controlli interni

Instagram, il popolare social media di proprietà di Meta Platforms, contribuisce a collegare e promuovere una vasta rete di account apertamente dedicati alla commissione e all’acquisto di contenuti sessuali di minori, secondo le indagini del Wall Street Journal e dei ricercatori della Stanford University e della University of Massachusetts Amherst.

I pedofili utilizzano da tempo Internet, ma a differenza dei forum e dei servizi di trasferimento file che si rivolgono a persone interessate a contenuti illeciti, Instagram non si limita a ospitare queste attività. I suoi algoritmi le promuovono. Instagram mette in contatto i pedofili e li guida verso i venditori di contenuti attraverso sistemi di raccomandazione che eccellono nel collegare coloro che condividono interessi di nicchia, questo hanno scoperto il Journal e i ricercatori accademici.

Sebbene non in vista per la maggior parte sulla piattaforma, gli account sessualizzati su Instagram sono sfrontati nel loro interesse. I ricercatori hanno scoperto che Instagram permetteva alle persone di cercare hashtag espliciti come #pedowhore e #preteensex e li collegava ad account che usavano questi termini per pubblicizzare materiale pedopornografico in vendita. Tali account spesso affermano di essere gestiti dai bambini stessi e utilizzano handle apertamente sessuali che incorporano parole come “piccola sgualdrina per te”.

Gli account Instagram che offrono la vendita di materiale sessuale illecito in genere non lo pubblicano apertamente, ma pubblicano “menu” di contenuti. Alcuni account invitano gli acquirenti a commissionare atti specifici. Alcuni menu includono prezzi per video di bambini che si fanno del male e “immagini di minori che compiono atti sessuali con animali”, hanno scoperto i ricercatori dello Stanford Internet Observatory. Al giusto prezzo, i bambini sono disponibili per “incontri” di persona. La promozione di contenuti sessuali minorili viola le regole stabilite da Meta e dalle leggi federali.

In risposta alle domande del Journal, Meta ha riconosciuto i problemi legati alle sue operazioni di controllo e ha dichiarato di aver istituito una task force interna per affrontare le questioni sollevate. “Lo sfruttamento dei minori è un crimine orribile”, ha dichiarato l’azienda, aggiungendo: “Stiamo continuamente studiando modi per difenderci attivamente da questo comportamento”.

Meta ha dichiarato di aver eliminato 27 reti di pedofili negli ultimi due anni e di avere in programma altre rimozioni. Da quando ha ricevuto le richieste del Journal, la piattaforma ha dichiarato di aver bloccato migliaia di hashtag che sessualizzano i bambini, alcuni con milioni di post, e di aver limitato i suoi sistemi dal raccomandare agli utenti la ricerca di termini noti per essere associati ad abusi sessuali. Ha dichiarato che sta anche lavorando per evitare che i suoi sistemi raccomandino ad adulti potenzialmente pedofili di connettersi tra loro o di interagire con i contenuti degli altri.

Alex Stamos, capo dello Stanford Internet Observatory e responsabile della sicurezza di Meta fino al 2018, ha affermato che per tenere sotto controllo anche gli abusi più evidenti sarà probabilmente necessario uno sforzo prolungato.

“Il fatto che un gruppo di tre accademici con accesso limitato possa trovare una rete così vasta dovrebbe mettere in allarme Meta”, ha dichiarato, sottolineando che l’azienda dispone di strumenti molto più efficaci per mappare la propria rete di pedofili rispetto agli esterni. “Spero che l’azienda investa in investigatori umani”, ha aggiunto.

Gli ostacoli tecnici e legali rendono difficile per chiunque al di fuori di Meta misurare con precisione la portata della rete.

Poiché le leggi sui contenuti pedopornografici sono estremamente ampie, indagare anche sulla promozione aperta di tali contenuti su una piattaforma pubblica è giuridicamente delicato.

Nel suo reportage, il Journal ha consultato esperti accademici sulla sicurezza online dei bambini. L’Internet Observatory di Stanford, una divisione del Cyber Policy Center dell’università che si occupa di abusi sui social media, ha prodotto un’analisi quantitativa indipendente delle funzioni di Instagram che aiutano gli utenti a connettersi e a trovare contenuti.

Il Journal si è rivolto anche al Rescue Lab (laboratorio di salvezza) della University of Massachusetts, che ha valutato come i pedofili su Instagram si inseriscano nel più ampio mondo dello sfruttamento dei minori online. Utilizzando metodi diversi, entrambe le entità sono state in grado di identificare rapidamente comunità su larga scala che promuovono l’abuso sessuale criminale.

Gli account di prova creati dai ricercatori che hanno visualizzato un singolo account della rete sono stati immediatamente colpiti da raccomandazioni “suggerite per te” di presunti venditori e acquirenti di contenuti sessuali per bambini, nonché di account che collegavano a siti di scambio di contenuti fuori piattaforma. È bastato seguire una manciata di queste raccomandazioni per inondare un account di prova con contenuti che sessualizzano i bambini.

Lo Stanford Internet Observatory ha utilizzato hashtag associati al sesso minorile per trovare 405 venditori di quello che i ricercatori hanno definito materiale pedopornografico “autogenerato”, ovvero account presumibilmente gestiti da bambini stessi, alcuni dei quali dichiaravano di avere solo 12 anni. Secondo i dati raccolti tramite Maltego, un software di mappatura della rete, 112 di questi account di venditori avevano collettivamente 22.000 follower unici.

I creatori e gli acquirenti di contenuti sessuali per minorenni sono solo un angolo di un ecosistema più ampio dedicato ai contenuti sessualizzati per bambini. Altri account della comunità pedofila su Instagram aggregano meme a favore della pedofilia o discutono del loro accesso ai bambini. Gli attuali ed ex dipendenti di Meta che hanno lavorato a iniziative di sicurezza per i bambini su Instagram stimano che il numero di account che esistono principalmente per seguire tali contenuti sia dell’ordine delle centinaia di migliaia, se non dei milioni.

Un portavoce di Meta ha dichiarato che l’azienda cerca attivamente di rimuovere tali utenti, eliminando 490.000 account per violazione delle politiche di sicurezza dei bambini solo nel mese di gennaio.

“Instagram è una porta d’accesso a luoghi di Internet dove gli abusi sessuali sui minori sono più espliciti”, ha dichiarato Brian Levine, direttore del Rescue Lab della University of Massachusetts che si occupa di ricerche sulla vittimizzazione dei minori online e di costruire strumenti forensi per combatterla. Levine è autore di un rapporto del 2022 per il National Institute of Justice, il braccio di ricerca del Dipartimento di Giustizia, sullo sfruttamento dei minori su Internet.

Instagram, che si stima abbia più di 1,3 miliardi di utenti, è particolarmente popolare tra gli adolescenti. I ricercatori di Stanford hanno trovato attività di sfruttamento sessuale simili su altre piattaforme sociali più piccole, ma hanno affermato che il problema su Instagram è particolarmente grave. “La piattaforma più importante per queste reti di acquirenti e venditori sembra essere Instagram”, hanno scritto in un rapporto che sarà pubblicato il 7 giugno.

Instagram ha dichiarato che le sue statistiche interne mostrano che gli utenti vedono lo sfruttamento minorile in meno di uno su 10 mila post visualizzati.

Lo sforzo delle piattaforme di social media e delle forze dell’ordine per combattere la diffusione della pornografia infantile online si concentra in gran parte sulla caccia alle immagini e ai video confermati, noti come materiale pedopornografico, o CSAM, che sono già noti per essere in circolazione. Il National Center for Missing & Exploited Children (Centro Nazionale per i Bambini Sfruttati o Scomparsi), un’organizzazione statunitense senza scopo di lucro che collabora con le forze dell’ordine, gestisce un database di tracce digitali di tali immagini e video e una piattaforma per la condivisione di tali dati tra le società Internet.

Gli algoritmi delle società Internet verificano le tracce digitali delle immagini pubblicate sulle loro piattaforme rispetto a tale elenco e riferiscono al centro quando le rilevano, come richiesto dalla legge federale statunitense. Nel 2022, il centro ha ricevuto 31,9 milioni di segnalazioni di immagini pedopornografiche, soprattutto da parte delle società Internet, con un aumento del 47% rispetto a due anni prima.

Meta, con oltre 3 miliardi di utenti attraverso le sue applicazioni, che includono Instagram, Facebook e WhatsApp, è in grado di rilevare questo tipo di immagini note se non sono criptate. Meta rappresenta l’85% delle segnalazioni di pornografia infantile inviate al centro, di cui circa 5 milioni da Instagram.

Lo screening automatico di Meta per i contenuti esistenti sullo sfruttamento minorile non è in grado di rilevare nuove immagini o gli sforzi per pubblicizzarne la vendita. Per prevenire e individuare tali attività non è sufficiente esaminare le segnalazioni degli utenti, ma è necessario rintracciare e smantellare le reti di pedofili, sostengono i ricercatori di Stanford e i loro collaboratori attuali e passati. L’obiettivo è rendere difficile per questi utenti connettersi tra loro, trovare contenuti e reclutare vittime.

Questo lavoro è fondamentale perché le forze dell’ordine hanno le risorse per investigare solo su una piccola parte delle segnalazioni che l’NCMEC riceve, ha detto Levine della Uni of Mass. Ciò significa che le piattaforme hanno la responsabilità primaria di impedire la formazione di una comunità e la normalizzazione degli abusi sessuali su minori.

Meta ha faticato più di altre piattaforme in questo senso, sia per la debolezza dell’applicazione delle norme, sia per le caratteristiche di progettazione che favoriscono la scoperta di materiale legale e illecito, ha rilevato Stanford.

Il team di Stanford ha trovato 128 account che offrivano materiale pedopornografico su Twitter, meno di un terzo di quelli trovati su Instagram, che ha una base di utenti complessiva molto più ampia di Twitter. Il team ha scoperto che Twitter non ha raccomandato tali account nella stessa misura di Instagram e li ha eliminati molto più rapidamente.

Tra le altre piattaforme popolari tra i giovani, Snapchat è utilizzato principalmente per la messaggistica diretta, quindi non aiuta a creare reti. E la piattaforma di TikTok è una di quelle in cui “questo tipo di contenuti non sembra proliferare”, si legge nel rapporto di Stanford.

Twitter non ha risposto alle richieste di commento. TikTok e Snapchat hanno rifiutato di commentare.

David Thiel, capo tecnologo dello Stanford Internet Observatory, ha dichiarato: “Il problema di Instagram si riduce alle funzioni di scoperta dei contenuti, alle modalità di raccomandazione degli argomenti e a quanto la piattaforma si affida alla ricerca e ai collegamenti tra gli account”. Thiel, che in precedenza ha lavorato a Meta su questioni di sicurezza, ha aggiunto: “È necessario introdurre delle barriere per fare in modo che qualcosa con una crescita di tale intensità sia ancora nominalmente sicura, e Instagram non l’ha fatto”.

La piattaforma ha faticato a supervisionare una tecnologia di base: le parole chiave. Gli hashtag sono una parte centrale della scoperta dei contenuti su Instagram, consentendo agli utenti di taggare e trovare i post di interesse per una particolare comunità, da argomenti ampi come #fashion o #nba ad altri più ristretti come #embroidery o #spelunking.

Una schermata scattata dallo Stanford Internet Observatory mostra l’avviso e l’opzione di click-through durante la ricerca di un hashtag legato alla pedofilia su Instagram. Foto: Osservatorio Internet di Stanford

Anche i pedofili hanno i loro hashtag preferiti. Termini di ricerca come #pedobait e variazioni di #mnsfw (“minore non sicuro per il lavoro”) sono stati utilizzati per taggare migliaia di post dedicati alla pubblicità di contenuti sessuali con bambini, rendendoli facilmente reperibili dagli acquirenti, hanno scoperto i ricercatori accademici. In seguito alle domande del Journal, Meta ha dichiarato di essere in procinto di vietare tali termini.

In molti casi, Instagram ha permesso agli utenti di cercare termini che i suoi algoritmi sanno essere associati a materiale illegale. In questi casi, una schermata a comparsa per gli utenti avvertiva che “Questi risultati potrebbero contenere immagini di abusi sessuali su minori”, sottolineando che la produzione e il consumo di tale materiale causano “danni estremi” ai bambini. La schermata offriva agli utenti due opzioni: “Ottieni risorse” e “Vedi comunque i risultati”.

In risposta alle domande del Journal, Instagram ha rimosso l’opzione che permetteva agli utenti di visualizzare i risultati di ricerca per i termini che potevano produrre immagini illegali. L’azienda ha rifiutato di dire perché aveva offerto l’opzione.

I ricercatori hanno scoperto che gli account pedofili su Instagram mescolano la sfacciataggine a sforzi superficiali per nascondere la loro attività. Alcune emoji funzionano come una sorta di codice, come l’immagine di una mappa – stenografia per “persona attratta da minori” – o una di “pizza al formaggio”, che condivide le sue iniziali con “pornografia infantile”, secondo Levine della Uni of Mass. Molti si dichiarano “amanti delle piccole cose della vita”.

Gli account si identificano come “venditore” o “s3ller” e molti dichiarano la forma di pagamento preferita nelle loro biografie. Gli account di questi venditori spesso indicano la presunta età del bambino dicendo che è “al 14° capitolo” o “31° anno” seguito da un’emoji di una freccia al contrario.

Secondo Levine della Uni of Mass, alcuni account riportano indizi di traffico sessuale, come quello di un’adolescente con la parola WHORE (pu**ana) scarabocchiata sul viso.

Alcuni utenti che dichiarano di vendere contenuti sessuali autoprodotti dicono di essere “senza volto” – offrendo immagini solo dal collo in giù – a causa di esperienze passate in cui i clienti li hanno perseguitati o ricattati. Altri corrono il rischio, facendo pagare un sovrapprezzo per immagini e video che potrebbero rivelare la loro identità mostrando il loro volto.

Molti degli account mostrano utenti con cicatrici da taglio all’interno delle braccia o delle cosce, e alcuni di loro citano passati abusi sessuali.

Anche solo un contatto di sfuggita con un account della comunità pedofila di Instagram può far sì che la piattaforma inizi a consigliare agli utenti di entrare a farne parte.

Sarah Adams, canadese, madre di due figli, ha creato un pubblico su Instagram che discute dello sfruttamento dei bambini e dei pericoli dell’eccesso di condivisione sui social media. Data la sua attenzione, i follower di Adams a volte le inviano cose inquietanti che hanno incontrato sulla piattaforma. A febbraio, ha raccontato, uno le ha inviato un messaggio con un account marchiato con il termine “bimbi incestuosi”.

La Adams ha raccontato di aver avuto accesso all’account – una raccolta di meme a favore dell’incesto con oltre 10.000 follower – solo per i pochi secondi necessari a segnalarlo a Instagram, poi ha cercato di dimenticarsene. Ma nei giorni successivi ha iniziato a sentire genitori inorriditi. Quando hanno guardato il profilo Instagram di Adams, hanno detto che, a seguito del contatto di Adams con l’account, venivano loro consigliati “bimbi incestuosi”.

Un portavoce di Meta ha dichiarato che i “bimbi incestuosi” violavano le sue regole e che Instagram aveva commesso un errore di applicazione. L’azienda ha dichiarato che intende affrontare tali raccomandazioni inappropriate nell’ambito della sua nuova task force per la sicurezza dei bambini.

Come per la maggior parte delle piattaforme di social media, il nucleo delle raccomandazioni di Instagram si basa su modelli comportamentali e non sulla corrispondenza tra gli interessi di un utente e argomenti specifici. Questo approccio è efficiente nell’aumentare la rilevanza delle raccomandazioni e funziona in modo più affidabile per le comunità che condividono un insieme ristretto di interessi.

In teoria, questa stessa ristrettezza della comunità di pedofili su Instagram dovrebbe rendere più facile per Instagram mappare la rete e adottare misure per combatterla. I documenti precedentemente esaminati dal Journal mostrano che Meta ha svolto questo tipo di lavoro in passato per sopprimere le reti di account che ritiene dannose, come nel caso degli account che promuovono la delegittimazione delle elezioni negli Stati Uniti dopo la rivolta del 6 gennaio in Campidoglio.

Come altre piattaforme, Instagram afferma di ricorrere agli utenti per individuare gli account che violano le regole. Ma questi sforzi non sono sempre stati efficaci.

A volte le segnalazioni di nudità di un bambino da parte degli utenti sono rimaste senza risposta per mesi, secondo un’analisi di decine di segnalazioni presentate nell’ultimo anno da numerosi sostenitori della sicurezza dei bambini.

All’inizio di quest’anno, un attivista anti-pedofilia ha scoperto un account Instagram che sosteneva di appartenere a una ragazza e che vendeva contenuti sessuali di minorenni, tra cui un post che dichiarava: “Questa adolescente è pronta per voi pervertiti”. Quando l’attivista ha segnalato l’account, Instagram ha risposto con un messaggio automatico che diceva: “A causa dell’elevato volume di segnalazioni che riceviamo, il nostro team non è stato in grado di esaminare questo post”.

Dopo che lo stesso attivista ha segnalato un altro post, che ritraeva una ragazza poco vestita con una didascalia a sfondo sessuale, Instagram ha risposto: “Il nostro team di revisione ha rilevato che il post [dell’account] non va contro le nostre linee guida della comunità”. La risposta suggeriva all’utente di nascondere l’account per evitare di vederne il contenuto.

Un portavoce di Meta ha riconosciuto che Meta ha ricevuto le segnalazioni e non ha agito di conseguenza. Una revisione del modo in cui l’azienda gestiva le segnalazioni di abusi sessuali su minori ha rilevato che un difetto del software impediva l’elaborazione di una parte sostanziale delle segnalazioni degli utenti e che il personale di moderazione dell’azienda non applicava correttamente le regole della piattaforma, ha dichiarato il portavoce. L’azienda ha dichiarato di aver risolto il bug nel suo sistema di segnalazione e di aver organizzato una nuova formazione per i suoi moderatori di contenuti.

Anche quando Instagram rimuove gli account che vendono contenuti di sesso minorile, non sempre vengono eliminati.

Secondo le linee guida interne della piattaforma, le sanzioni per la violazione degli standard della comunità sono generalmente applicate agli account, non agli utenti o ai dispositivi. Poiché Instagram consente agli utenti di gestire più account collegati, il sistema permette di eludere facilmente l’applicazione delle norme. Gli utenti elencano regolarmente nei loro profili gli handle degli account “di riserva”, consentendo loro di riprendere a postare per lo stesso gruppo di follower se Instagram li rimuove.

In alcuni casi, i sistemi di raccomandazione di Instagram hanno ostacolato direttamente gli sforzi del proprio personale di sicurezza. Dopo che l’azienda ha deciso di dare un giro di vite ai link di uno specifico servizio di trasferimento di file criptati, noto per la trasmissione di contenuti pedopornografici, Instagram ha bloccato le ricerche del suo nome.

I suggerimenti di hashtag guidati dall’intelligenza artificiale di Instagram non hanno recepito il messaggio. Nonostante il rifiuto di mostrare risultati per il nome del servizio, la funzione di riempimento automatico della piattaforma consigliava agli utenti di provare varianti del nome con le parole “boys” e “CP” aggiunte alla fine.

L’azienda ha cercato di disabilitare questi hashtag nella sua risposta alle domande del Journal. Ma nel giro di pochi giorni Instagram ha ricominciato a consigliare nuove variazioni del nome del servizio che hanno portato anche ad account che vendevano presunti contenuti sessuali minorili.

Dopo il controllo iniziale della società sugli account portati alla sua attenzione da Stanford e dal Journal, Levine della Uni of Mass ha controllato alcuni degli account di venditori minorenni rimasti su Instagram. Come in precedenza, la visualizzazione anche di uno solo di essi portava Instagram a consigliarne di nuovi. I suggerimenti di Instagram stavano aiutando a ricostruire la rete che il personale di sicurezza della piattaforma stava cercando di smantellare.

Un portavoce di Meta ha dichiarato che i suoi sistemi per prevenire tali raccomandazioni sono attualmente in fase di realizzazione. Levine ha definito inaccettabile il ruolo di Instagram nella promozione di contenuti e account pedofili.

“Tirate il freno d’emergenza”, ha detto. “I benefici economici valgono i danni per questi bambini?”

Scrivete a Jeff Horwitz all’indirizzo jeff.horwitz@wsj.com e a Katherine Blunt all’indirizzo katherine.blunt@wsj.com

Pubblicato originariamente sul Notiziario COVID di Meryl

Suggerisci una correzione

Articoli simili