| | | | | | |

O WEF e os seus parceiros afirmam trabalhar para proporcionar “segurança digital” – mas o WSJ acaba de nos mostrar que o parceiro Meta tem direcionado os seus clientes para sites de abuso sexual de crianças

Não só o parceiro é um enorme problema (vou fornecer o texto completo do artigo do WSJ), como a “segurança digital” é também um eufemismo para a censura.

O impacto da segurança digital – de acordo com o Fórum Económico Mundial

É claro que os problemas com uma identidade digital e um passaporte de saúde são

  1. que as funcionalidades adicionais serão rapidamente acrescentadas, colocando a sua vida e todas as transacções numa rede conectada
  2. os seus dados online podem ser roubados (especialmente os seus dados de saúde e bancários)
  3. o seu dinheiro pode ser desligado ou tributado à vontade
  4. os seus movimentos e compras podem ser limitados
  5. a sua rede de amizades e os seus associados serão todos registados e seguidos
  6. a sua família pode ser obrigada a sofrer por comportamentos que não agradam aos controladores. Na China, a sua pontuação de crédito social determina se pode arrendar ou comprar uma propriedade ou se os seus filhos podem frequentar uma boa escola, segundo me disseram.

Mas vamos tornar isto palatável: o que está em causa são os direitos humanos. Pisca, pisca.

A luta contra os conteúdos nocivos em linha é um problema complexo. É um desafio permanente combater fenómenos como o abuso e a exploração sexual de crianças, o terrorismo e o discurso de ódio, a desinformação e os conteúdos relacionados com a automutilação e o suicídio.

À medida que as novas tecnologias se tornam disponíveis, a necessidade de encontrar um equilíbrio entre a segurança e a privacidade no mundo digital e a liberdade de expressão continua a ser vital.

Proporcionar experiências online seguras e protegidas é essencial para as empresas globais, os grupos da sociedade civil e os indivíduos. A Coligação Global para a Segurança Digital do Fórum Económico Mundial está a reunir um grupo diversificado de líderes para acelerar a cooperação entre os sectores público e privado, a fim de combater os conteúdos e comportamentos nocivos online.

Os membros da coligação desenvolveram os Princípios Globais sobre Segurança Digital, que definem a forma como os direitos humanos devem ser traduzidos no mundo digital. O Grupo de Trabalho da Coligação inclui representantes da Microsoft, da Aliança Global WeProtect, Meta, Amazon, Google, OHCHR (Gabinete do Alto Comissariado das Nações Unidas para os Direitos Humanos), Ofcom UK, Global Partners Digital.

Os princípios foram desenvolvidos através de consultas com governos e entidades reguladoras, grandes plataformas tecnológicas e de redes sociais, empresas de tecnologia de segurança e representantes da sociedade civil e do meio académico.

Os princípios servirão de guia para todas as partes interessadas no ecossistema digital, a fim de promover a segurança digital a nível político, industrial e social. A colaboração entre os governos, as empresas e as pessoas envolvidas em iniciativas civis e sociais é necessária para garantir um impacto no mundo real.

Em resumo, os princípios incluem:

  • Todos os apoiantes devem colaborar para criar um ambiente online seguro, fiável e inclusivo. [Inclui tudo sobre si.-Nass]. A política e a tomada de decisões devem ser feitas com base em provas, conhecimentos e perspectivas diversas. A transparência é importante e a inovação deve ser fomentada.
  • Os governos que apoiam a iniciativa devem distinguir entre conteúdos ilegais e conteúdos lícitos, mas que podem ser prejudiciais , e diferenciar as medidas regulamentares em conformidade, garantindo que a legislação e as políticas respeitam e protegem todos os direitos dos utilizadores. Devem apoiar as vítimas e os sobreviventes de abusos ou danos.
  • Os prestadores de serviços online que prestam apoio devem comprometer-se a respeitar as responsabilidades em matéria de direitos humanos e elaborar políticas para garantir que o fazem, garantir que a segurança é uma prioridade em toda a empresa e que é incorporada como norma na conceção de funcionalidades e colaborar com outros prestadores de serviços online. [ Afinal, o que é “segurança”?]

Os princípios também reconhecem que os grupos da sociedade civil e as organizações não governamentais desempenham um papel fundamental na promoção da segurança digital e dos direitos humanos; fornecem informações valiosas sobre o impacto da segurança online – e da liberdade online – nas comunidades e nos indivíduos.

“A promoção da segurança digital é fundamental para permitir que as pessoas tirem o máximo partido do mundo digital. Estes princípios foram criados como um passo positivo e acionável para criar uma experiência digital mais segura para todos e a Microsoft continua empenhada em encontrar soluções que atinjam este objetivo e respeitem os direitos humanos fundamentais.”

-Courtney Gregoire, Directora de Segurança Digital, Microsoft

Os princípios têm em consideração e procuram complementar os princípios existentes, tais como os Princípios Voluntários para Combater o Abuso e a Exploração Sexual de Crianças Online, o Apelo de Christchurch para eliminar conteúdos terroristas e extremistas violentos online, os Princípios de Santa Clara, os princípios Safety by Design do Australian eSafety Commissioner, o quadro de melhores práticas da Digital Trust & Safety Partnership e muitos outros.

“Os governos, o sector privado e a sociedade civil têm todos um papel importante a desempenhar na prevenção dos abusos e da exploração online, em especial quando se trata de proteger os mais vulneráveis da sociedade. Este novo conjunto de princípios fornece um quadro importante para uma resposta mais eficaz aos danos online, incluindo o nosso próprio trabalho para acabar com o abuso sexual de crianças online.”

– Iain Drennan, Diretor Executivo, Aliança Global WeProtect

A Meta (o novo nome do Facebook) era um dos principais parceiros do WEF (acima) para promover a segurança digital. Mas, em vez disso, a Meta, que detém o Instagram, tem facilitado as redes de pedofilia na sua plataforma, de acordo com uma investigação pormenorizada da equipa do Observatório da Internet de Stanford (e estes censores deviam saber) e de um professor da Universidade de Massachusetts, bem como de especialistas na ambiente digital como Alex Stamos, que fundou e dirige o programa de Stanford. O Wall Street Journal fez uma análise muito aprofundada e não deixa margem para a Meta se esquivar disto. Uma vez que o WSJ está protegido por uma barreira de acesso pago, apresento em seguida o artigo completo de 7 de junho.

https://www.wsj.com/articles/instagram-vast-pedophile-network-4ab7189

O Instagram, o popular sítio de comunicação social propriedade da Meta Platforms, ajuda a ligar e a promover uma vasta rede de contas abertamente dedicadas à encomenda e compra de conteúdos sexuais para menores, de acordo com investigações do The Wall Street Journal e de investigadores da Universidade de Stanford e da Universidade de Massachusetts Amherst.

Há muito que os pedófilos utilizam a Internet, mas, ao contrário dos fóruns e dos serviços de transferência de ficheiros que servem as pessoas interessadas em conteúdos ilícitos, o Instagram não se limita a acolher estas actividades. Os seus algoritmos promovem-nas. O Instagram liga os pedófilos e encaminha-os para os vendedores de conteúdos através de sistemas de recomendação que se distinguem por ligarem aqueles que partilham interesses de nicho, descobriram o Journal e os investigadores académicos.

Apesar de estarem fora da vista da maioria dos utilizadores da plataforma, as contas sexualizadas no Instagram são descaradas quanto aos seus interesses. Os investigadores descobriram que o Instagram permitia que as pessoas pesquisassem hashtags explícitas como #pedowhore e #preteensex e ligavam-nas a contas que usavam os termos para publicitar material de sexo infantil para venda. Essas contas afirmam muitas vezes ser geridas pelas próprias crianças e utilizam nomes abertamente sexuais que incorporam palavras como “pequena puta para si”

As contas do Instagram que se propõem vender material sexual ilícito geralmente não o publicam abertamente, publicando antes “menus” de conteúdo. Algumas contas convidam os compradores a encomendar actos específicos. Alguns menus incluem preços para vídeos de crianças a magoarem-se a si próprias e “imagens do menor a praticar actos sexuais com animais”, descobriram os investigadores do Observatório da Internet de Stanford. Ao preço certo, as crianças estão disponíveis para “encontros” pessoais. A promoção de conteúdos sexuais para menores viola as regras estabelecidas pelo Meta e a lei federal.

Em resposta às perguntas do Journal, o Meta reconheceu a existência de problemas nas suas operações de aplicação da lei e afirmou ter criado um grupo de trabalho interno para resolver as questões levantadas. “A exploração infantil é um crime horrível”, afirmou a empresa, acrescentando: “Estamos continuamente a investigar formas de nos defendermos ativamente contra este comportamento”

A Meta disse que, nos últimos dois anos, eliminou 27 redes de pedofilia e está a planear mais remoções. Desde que recebeu as consultas do Journal, a plataforma disse que bloqueou milhares de hashtags que sexualizam crianças, algumas com milhões de publicações, e restringiu os seus sistemas de recomendar aos utilizadores a pesquisa de termos conhecidos por estarem associados a abusos sexuais. A plataforma afirmou ainda que está a trabalhar para evitar que os seus sistemas recomendem que adultos potencialmente pedófilos se liguem uns aos outros ou interajam com os conteúdos uns dos outros.

Alex Stamos, chefe do Observatório da Internet de Stanford e diretor de segurança da Meta até 2018, afirmou que controlar até mesmo os abusos óbvios exigiria provavelmente um esforço sustentado.

“O facto de uma equipa de três académicos com acesso limitado ter conseguido encontrar uma rede tão grande deve fazer soar os alarmes na Meta”, disse ele, observando que a empresa tem ferramentas muito mais eficazes para mapear a sua rede de pedófilos do que as pessoas de fora. “Espero que a empresa invista em investigadores humanos”, acrescentou.

Os obstáculos técnicos e legais dificultam a determinação da escala total da rede para que alguém de fora da Meta possa medir com precisão.

Uma vez que as leis relativas a conteúdos sexuais para crianças são extremamente abrangentes, investigar até mesmo a sua promoção aberta numa plataforma pública é juridicamente sensível.

Na sua reportagem, o Journal consultou especialistas académicos em segurança infantil online. O Observatório da Internet de Stanford, uma divisão do Centro de Política Cibernética da universidade centrada no abuso dos meios de comunicação social, produziu uma análise quantitativa independente das funcionalidades do Instagram que ajudam os utilizadores a ligarem-se e a encontrarem conteúdos.

O Journal também contactou o Rescue Lab da UMass, que avaliou a forma como os pedófilos no Instagram se enquadram no mundo mais vasto da exploração infantil online. Usando métodos diferentes, ambas as entidades conseguiram identificar rapidamente comunidades de grande escala que promovem o abuso sexual criminoso.

As contas de teste criadas pelos investigadores que visualizaram uma única conta na rede foram imediatamente atingidas por recomendações “sugeridas para si” de supostos vendedores e compradores de conteúdos sexuais para crianças, bem como de contas com ligações a sites de comércio de conteúdos fora da plataforma. Seguir apenas algumas destas recomendações foi suficiente para inundar uma conta de teste com conteúdos que sexualizam crianças.

O Stanford Internet Observatory utilizou hashtags associadas a sexo com menores de idade para encontrar 405 vendedores daquilo a que os investigadores chamaram material de sexo com crianças “auto-gerado” – ou contas supostamente geridas pelas próprias crianças, algumas das quais com apenas 12 anos. De acordo com os dados recolhidos através do Maltego, um software de mapeamento de redes, 112 dessas contas de vendedores tinham coletivamente 22.000 seguidores únicos.

Os criadores e compradores de conteúdos sexuais para menores são apenas uma parte de um ecossistema mais vasto dedicado a conteúdos sexuais para crianças. Outras contas da comunidade pedófila no Instagram agregam memes pró-pedofilia ou discutem seu acesso a crianças. Funcionários atuais e antigos da Meta que trabalharam em iniciativas de segurança infantil no Instagram estimam que o número de contas que existem principalmente para seguir esse tipo de conteúdo está na casa das centenas de milhares, se não milhões.

Um porta-voz da Meta afirmou que a empresa procura ativamente eliminar esses utilizadores, tendo retirado 490 000 contas por violarem as suas políticas de segurança infantil só em janeiro.

“O Instagram é uma rampa de acesso a lugares na Internet onde há abuso sexual infantil mais explícito”, disse Brian Levine, diretor do UMass Rescue Lab, que pesquisa a vitimização infantil online e constrói ferramentas forenses para combatê-la. Levine é autor de um relatório de 2022 para o Instituto Nacional de Justiça, o braço de pesquisa do Departamento de Justiça, sobre exploração infantil na internet.

O Instagram, que se estima ter mais de 1,3 mil milhões de utilizadores, é especialmente popular entre os adolescentes. Os pesquisadores de Stanford encontraram alguma atividade de exploração sexual semelhante em outras plataformas sociais menores, mas disseram que descobriram que o problema no Instagram é particularmente grave. “A plataforma mais importante para estas redes de compradores e vendedores parece ser o Instagram”, escreveram num relatório que deverá ser publicado a 7 de junho.

O Instagram afirmou que as suas estatísticas internas mostram que os utilizadores vêem exploração infantil em menos de um em cada 10 mil posts visualizados.

Os esforços das plataformas de redes sociais e das autoridades policiais para combater a disseminação da pornografia infantil online centram-se em grande parte na busca de imagens e vídeos confirmados, conhecidos como material de abuso sexual infantil, ou CSAM, que já se sabe estarem em circulação. O Centro Nacional para Crianças Desaparecidas e Exploradas, uma organização americana sem fins lucrativos que trabalha com as forças policiais, mantém uma base de dados de impressões digitais dessas imagens e vídeos e uma plataforma para partilhar esses dados entre as empresas de Internet.

Os algoritmos das empresas de Internet verificam as impressões digitais das imagens publicadas nas suas plataformas em relação a essa lista e informam o centro quando as detectam, como exige a lei federal dos EUA. Em 2022, o centro recebeu 31,9 milhões de denúncias de pornografia infantil, principalmente de empresas de Internet – um aumento de 47% em relação aos dois anos anteriores.

O Meta, com mais de 3 bilhões de usuários em seus aplicativos, que incluem Instagram, Facebook e WhatsApp, é capaz de detetar esses tipos de imagens conhecidas se elas não estiverem criptografadas. O Meta foi responsável por 85% das denúncias de pornografia infantil apresentadas ao centro, incluindo cerca de 5 milhões de imagens do Instagram.

O rastreio automatizado do Meta para conteúdos de exploração infantil existentes não consegue detetar novas imagens ou esforços para publicitar a sua venda. Prevenir e detetar esse tipo de atividade requer não só a revisão das denúncias dos utilizadores, mas também o rastreio e a interrupção das redes de pedófilos, dizem os actuais e antigos funcionários, bem como os investigadores de Stanford. O objetivo é dificultar a ligação entre esses utilizadores, a procura de conteúdos e o recrutamento de vítimas.

Este trabalho é vital porque as agências de aplicação da lei não têm recursos para investigar mais do que uma pequena fração das denúncias que o NCMEC recebe, disse Levine da UMass. Isso significa que as plataformas têm a responsabilidade principal de impedir a formação de uma comunidade e a normalização do abuso sexual de crianças.

A Meta tem-se debatido com estes esforços mais do que outras plataformas, tanto devido a uma fraca aplicação da lei como devido a características de concepção que promovem a descoberta de conteúdos legais e ilícitos, concluiu Stanford.

A equipa de Stanford encontrou 128 contas que se oferecem para vender material sobre abuso sexual de crianças no Twitter, menos de um terço do número que encontraram no Instagram, que tem uma base de utilizadores muito maior do que o Twitter. O Twitter não recomendou estas contas da mesma forma que o Instagram e retirou-as do ar muito mais rapidamente, segundo a equipa.

Entre outras plataformas populares entre os jovens, o Snapchat é utilizado sobretudo para enviar mensagens directas, pelo que não ajuda a criar redes. E a plataforma do TikTok é aquela em que “esse tipo de conteúdo não parece proliferar”, diz o relatório de Stanford.

O Twitter não respondeu aos pedidos de comentário. O TikTok e o Snapchat não quiseram comentar.

David Thiel, tecnólogo-chefe do Observatório da Internet de Stanford, disse: “O problema do Instagram se resume a recursos de descoberta de conteúdo, as formas como os tópicos são recomendados e o quanto a plataforma depende de pesquisa e links entre contas” Thiel, que trabalhou anteriormente na Meta em questões de segurança e proteção, acrescentou: “É preciso colocar grades de proteção para que algo tão intensivo em crescimento ainda seja nominalmente seguro, e o Instagram não o fez

A plataforma tem tido dificuldade em supervisionar uma tecnologia básica: as palavras-chave. As hashtags são uma parte central da descoberta de conteúdos no Instagram, permitindo aos utilizadores marcar e encontrar publicações de interesse para uma determinada comunidade – desde tópicos abrangentes como #fashion ou #nba até tópicos mais restritos como #embroidery ou #spelunking.

Uma captura de ecrã tirada pelo Stanford Internet Observatory mostra o aviso e a opção de clicar quando se procura uma hashtag relacionada com pedofilia no Instagram. Foto: Observatório da Internet de Stanford

Os pedófilos também têm as suas hashtags preferidas. Termos de pesquisa como #pedobait e variações de #mnsfw (“minor not safe for work”) foram usados para marcar milhares de posts dedicados à publicidade de conteúdos sexuais com crianças, tornando-os facilmente encontráveis pelos compradores, descobriram os investigadores académicos. Na sequência de questões colocadas pelo Journal, o Meta afirmou que está a proceder à proibição de tais termos.

Em muitos casos, o Instagram permitiu que os utilizadores pesquisassem termos que os seus próprios algoritmos sabem que podem estar associados a material ilegal. Nesses casos, um ecrã pop-up para os utilizadores avisava que “estes resultados podem conter imagens de abuso sexual de crianças” e referia que a produção e o consumo desse tipo de material causa “danos extremos” às crianças. O ecrã oferecia duas opções aos utilizadores: “Obter recursos” e “Ver resultados na mesma”

Em resposta às perguntas do Journal, o Instagram removeu a opção de os utilizadores verem os resultados da pesquisa de termos que possam produzir imagens ilegais. A empresa não quis dizer por que razão tinha oferecido a opção.

As contas pedófilas no Instagram misturam descaramento com esforços superficiais para ocultar a sua atividade, descobriram os investigadores. Certos emojis funcionam como uma espécie de código, como a imagem de um mapa – abreviatura de “pessoa atraída por menores” – ou um de “pizza de queijo”, que partilha as suas iniciais com “pornografia infantil”, segundo Levine da UMass. Muitos declaram-se “amantes das pequenas coisas da vida”

As contas identificam-se como “seller” (vendedor) ou “s3ller” (vendedor), e muitas indicam a sua forma de pagamento preferida nas suas biografias. Estas contas de vendedores indicam frequentemente a suposta idade da criança, dizendo que está “no capítulo 14” ou “tem 31 anos”, seguido de um emoji de uma seta invertida.

Algumas das contas apresentavam indícios de tráfico sexual, disse Levine, da UMass, como uma que mostrava uma adolescente com a palavra WHORE (prostituta) rabiscada no rosto.

Alguns utilizadores que afirmam vender conteúdos sexuais de produção própria dizem que são “sem rosto” – oferecendo imagens apenas do pescoço para baixo – devido a experiências passadas em que os clientes os perseguiram ou chantagearam. Outros arriscam, cobrando um prémio por imagens e vídeos que podem revelar a sua identidade ao mostrarem o seu rosto.

Muitas das contas mostram utilizadores com cicatrizes de corte na parte interior dos braços ou das coxas, e alguns deles referem abusos sexuais passados.

O simples contacto com uma conta da comunidade pedófila do Instagram pode fazer com que a plataforma comece a recomendar aos utilizadores que se juntem a ela.

Sarah Adams, uma mãe canadiana de dois filhos, construiu uma audiência no Instagram que discute a exploração infantil e os perigos da partilha excessiva nas redes sociais. Dado o seu foco, os seguidores de Adams enviam-lhe por vezes coisas perturbadoras com que se depararam na plataforma. Em fevereiro, disse, uma pessoa enviou-lhe uma mensagem com uma conta marcada com o termo “incest toddlers” (crianças incestuosas)

Adams disse que acedeu à conta – uma coleção de memes pró-incesto com mais de 10.000 seguidores – apenas durante os poucos segundos que demorou a reportar ao Instagram e depois tentou esquecer o assunto. Mas, ao longo dos dias seguintes, começou a receber notícias de pais horrorizados. Quando olharam para o perfil de Adams no Instagram, disseram que lhes estavam a recomendar “crianças incestuosas” como resultado do contacto de Adams com a conta.

Um porta-voz da Meta disse que os “incest toddlers” violavam as suas regras e que o Instagram tinha errado na aplicação das mesmas. A empresa disse que planeia abordar essas recomendações inadequadas como parte do seu novo grupo de trabalho sobre segurança infantil.

Tal como acontece com a maioria das plataformas de redes sociais, o núcleo das recomendações do Instagram baseia-se em padrões de comportamento e não na correspondência entre os interesses de um utilizador e assuntos específicos. Esta abordagem é eficiente para aumentar a relevância das recomendações e funciona de forma mais fiável em comunidades que partilham um conjunto restrito de interesses.

Em teoria, essa mesma estreiteza da comunidade pedófila no Instagram deveria facilitar o mapeamento da rede e a tomada de medidas para combatê-la. Documentos previamente analisados pelo Journal mostram que o Meta já fez esse tipo de trabalho no passado para suprimir redes de contas que considera prejudiciais, como no caso de contas que promovem a deslegitimação eleitoral nos EUA após o motim de 6 de janeiro no Capitólio.

Tal como outras plataformas, o Instagram diz que recorre aos seus utilizadores para ajudar a detetar contas que estejam a infringir as regras. Mas esses esforços nem sempre têm sido eficazes.

Por vezes, as denúncias de utilizadores sobre nudez envolvendo uma criança ficaram sem resposta durante meses, de acordo com uma análise de dezenas de denúncias apresentadas ao longo do último ano por vários defensores da segurança infantil.

No início deste ano, um ativista anti-pedófilo descobriu uma conta de Instagram que dizia pertencer a uma rapariga que vendia conteúdos sexuais para menores, incluindo um post que declarava: “Esta adolescente está pronta para vocês, pervertidos” Quando o ativista denunciou a conta, o Instagram respondeu com uma mensagem automática que dizia: “Devido ao elevado volume de denúncias que recebemos, a nossa equipa não conseguiu analisar esta publicação.”

Depois de o mesmo ativista ter denunciado outra publicação, esta de uma jovem com pouca roupa e com uma legenda graficamente sexual, o Instagram respondeu: “A nossa equipa de análise concluiu que a publicação [da conta] não vai contra as nossas Directrizes da Comunidade.” A resposta sugeria que o utilizador ocultasse a conta para evitar ver o seu conteúdo.

Um porta-voz da Meta reconheceu que a Meta tinha recebido as denúncias e não tinha actuado em relação a elas. Uma revisão da forma como a empresa lidou com as denúncias de abuso sexual de crianças descobriu que uma falha de software estava a impedir que uma parte substancial das denúncias dos utilizadores fosse processada e que a equipa de moderação da empresa não estava a aplicar devidamente as regras da plataforma, disse o porta-voz. A empresa disse que, desde então, corrigiu o erro no seu sistema de denúncia e está a dar nova formação aos seus moderadores de conteúdos.

Mesmo quando o Instagram retira do ar contas que vendem conteúdos sexuais para menores, estas nem sempre desaparecem.

De acordo com as directrizes internas da plataforma, as sanções por violação das normas da comunidade são geralmente aplicadas às contas e não aos utilizadores ou dispositivos. Uma vez que o Instagram permite que os utilizadores tenham várias contas ligadas, o sistema facilita a evasão de uma aplicação significativa. Os utilizadores listam regularmente os nomes das contas de “backup” nas suas bios, o que lhes permite simplesmente voltar a publicar para o mesmo conjunto de seguidores se o Instagram as remover.

Nalguns casos, os sistemas de recomendação do Instagram prejudicam diretamente os esforços da sua própria equipa de segurança. Depois de a empresa ter decidido reprimir as ligações de um serviço específico de transferência de ficheiros encriptados, conhecido por transmitir conteúdos sexuais para crianças, o Instagram bloqueou as pesquisas pelo seu nome.

As sugestões de hashtag do Instagram, baseadas em IA, não entenderam a mensagem. Apesar de se recusar a mostrar resultados para o nome do serviço, o recurso de preenchimento automático da plataforma recomendou que os usuários tentassem variações do nome com as palavras “meninos” e “CP” adicionadas ao final.

A empresa tentou desativar essas hashtags na sua resposta às questões colocadas pelo Journal. Mas, passados poucos dias, o Instagram voltou a recomendar novas variações do nome do serviço que também conduziam a contas que vendiam alegados conteúdos sexuais para menores.

Após a varredura inicial da empresa nas contas que lhe foram apresentadas por Stanford e pelo Journal, Levine, da UMass, verificou algumas das restantes contas de vendedores menores de idade no Instagram. Tal como antes, a visualização de uma delas levava o Instagram a recomendar novas contas. As sugestões do Instagram estavam a ajudar a reconstruir a rede que a própria equipa de segurança da plataforma estava a tentar desmantelar.

Um porta-voz da Meta disse que os seus sistemas para evitar tais recomendações estão atualmente a ser construídos. Levine considerou inaceitável o papel do Instagram na promoção de conteúdos e contas pedófilas.

“Puxem o travão de emergência”, disse. “Será que os benefícios económicos valem os danos causados a estas crianças?”

Escreva para Jeff Horwitz em jeff.horwitz@wsj.com e Katherine Blunt em katherine.blunt@wsj.com

Publicado originalmente no boletim informativo COVID da Meryl

Suggest a correction

Similar Posts