El Foro Económico Mundial (FEM) y sus socios afirman trabajar para proporcionar «seguridad digital», pero el periódico WSJ acaba de mostrarnos que su socio Meta ha estado dirigiendo a sus clientes a sitios de abusos sexuales a menores

No sólo la asociación de estos dos grupos es un problema enorme (facilitaré el texto completo del artículo del WSJ: Wall Street Journal), sino que la «seguridad digital» es también un eufemismo de censura

El impacto de ofrecer seguridad digital, según el Foro Económico Mundial

Por supuesto, los problemas con una identidad digital y un pasaporte sanitario son:

  1. que se añadirán rápidamente funcionalidades adicionales, poniendo tu vida y todas tus transacciones en una red conectada
  2. que pueden robarle sus datos en internet (especialmente los sanitarios y bancarios)
  3. que tu dinero puede ser desconectado o gravado a voluntad
  4. tus movimientos y compras pueden ser limitados
  5. tu red de amistades y tus socios quedarán registrados y rastreados
  6. tu familia puede sufrir por comportamientos que no gusten a los controladores. En China, tu puntuación de crédito social determina si puedes alquilar o comprar una propiedad o si tus hijos pueden ir a una buena escuela, según me han dicho.

Pero hagámoslo apetecible: se trata de derechos humanos. Guiño, guiño.

La lucha contra los contenidos nocivos en internet representa un problema complejo. Combatir el abuso y la explotación sexual infantil, el terrorismo y la incitación al odio, la desinformación y los contenidos relacionados con la autolesión y el suicidio es un reto constante.

A medida que aparecen nuevas tecnologías, la necesidad de encontrar un equilibrio entre la seguridad y la privacidad en el mundo digital y la libertad de expresión sigue siendo vital.

Ofrecer experiencias en internet seguras es esencial para las empresas globales, los grupos de la sociedad civil y los individuos por igual. La Coalición Mundial para la Seguridad Digital del Foro Económico Mundial está reuniendo a un grupo diverso de líderes para acelerar la cooperación público-privada para hacer frente a los contenidos y conductas nocivos en la red.

Los miembros de la coalición han desarrollado los Principios Globales sobre Seguridad Digital, que definen cómo deben traducirse los derechos humanos en el mundo digital. El Grupo de Trabajo de la Coalición incluye a representantes de Microsoft, WeProtect Global Alliance, Metaamazon, Google, OHCHR (Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos), Ofcom UK y Global Partners Digital.

Los principios se han desarrollado a través de consultas con gobiernos y reguladores, las principales plataformas de medios sociales y tecnología, empresas de tecnología de seguridad y representantes de la sociedad civil y el mundo académico.

Los principios servirán de guía a todas las partes interesadas del ecosistema digital para impulsar la seguridad digital a nivel político, industrial y social. Es necesaria la colaboración entre gobiernos, empresas y quienes participan en iniciativas civiles y sociales para garantizar un impacto en el mundo real.

Para resumir, los principios incluyen:

  • Todos los partidarios deben colaborar para construir un entorno en red seguro, de confianza e inclusivo. [Incluye todo sobre ti, añade Nass] La política y la toma de decisiones deben basarse en pruebas, ideas y perspectivas diversas. La transparencia es importante y debe fomentarse la innovación.
  • Los gobiernos solidarios deben distinguir entre contenidos ilegales y contenidos que son legales pero pueden ser perjudiciales y diferenciar en consecuencia cualquier medida reguladora, garantizar que la ley y la política respetan y protegen todos los derechos de los usuarios. Deben apoyar a las víctimas y supervivientes de abusos o daños.
  • Los proveedores de servicios en la red solidarios deben comprometerse a respetar las responsabilidades en materia de derechos humanos y diseñar políticas que garanticen que lo hacen, garantizar que la seguridad es una prioridad en toda la empresa y que se incorpora como norma al diseñar las funciones, y colaborar con otros proveedores de servicios en la red.

Los principios también reconocen que los grupos de la sociedad civil y las organizaciones no gubernamentales desempeñan un papel fundamental en el avance de la seguridad digital y la promoción de los derechos humanos; proporcionan una valiosa información sobre el impacto de la seguridad en línea – y la libertad en línea – en las comunidades y los individuos.

«Fomentar la seguridad digital es fundamental para que las personas puedan aprovechar al máximo el mundo digital. Estos principios se crearon como un paso accionable y positivo hacia la creación de una experiencia digital más segura para todos y Microsoft mantiene su compromiso de encontrar soluciones que logren este objetivo y respeten los derechos humanos fundamentales.»

-Courtney Gregoire, Directora de Seguridad Digital de Microsoft

Los principios tienen en cuenta y tratan de complementar otros ya existentes, como los Principios Voluntarios para Contrarrestar el Abuso y la Explotación Sexual Infantil en la red, el Llamamiento de Christchurch para eliminar los contenidos terroristas y extremistas violentos en redes, los Principios de Santa Clara, los principios Safety by Design del Comisionado de Seguridad Electrónica de Australia, el marco de mejores prácticas de la Digital Trust & Safety Partnership, y muchos otros.

«Los gobiernos, el sector privado y la sociedad civil tienen un importante papel que desempeñar en la prevención de los abusos y la explotación en internet, en particular a la hora de proteger a los más vulnerables de la sociedad. Este nuevo conjunto de principios proporciona un marco importante para dar una respuesta más eficaz a los daños en línea, incluida nuestra propia labor para acabar con los abusos sexuales a menores en las redes.»

– Iain Drennan, Director Ejecutivo de la Alianza Mundial WeProtect

Meta (el nuevo nombre de Facebook) era uno de los principales socios del FEM (Foro Económico Mundial) para promover la seguridad digital. Pero en lugar de eso, Meta, propietaria de Instagram, ha estado facilitando redes de pedofilia en su plataforma, según una detallada investigación del personal del Observatorio de Internet de Stanford (y estos censores deberían saberlo) y un profesor de la Universidad de Massachussets , así como expertos en el panorama digital como Alex Stamos, que fundó y dirige el programa de Stanford. El Wall Street Journal hizo una inmersión muy profunda y no dejan espacio para que Meta se escabulla de esto. Como el WSJ es de pago, a continuación publicamos el artículo completo del 7 de junio.

https://www.wsj.com/articles/instagram-vast-pedophile-network-4ab7189

Instagram, el popular sitio de redes sociales propiedad de Meta Platforms, ayuda a conectar y promover una vasta red de cuentas abiertamente dedicadas a la comisión y compra de contenido sexual para menores de edad, según investigaciones de The Wall Street Journal e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.

Los pedófilos llevan mucho tiempo utilizando Internet, pero a diferencia de los foros y servicios de transferencia de archivos que atienden a personas interesadas en contenidos ilícitos, Instagram no se limita a albergar estas actividades. Sus algoritmos las promueven. Instagram conecta a los pedófilos y los orienta hacia los vendedores de contenidos mediante sistemas de recomendación que destacan por vincular a quienes comparten intereses nicho, según descubrieron el Journal y los investigadores académicos.

Aunque la mayoría de los usuarios de la plataforma no lo ven, las cuentas sexualizadas de Instagram son descaradas en cuanto a sus intereses. Los investigadores descubrieron que Instagram permitía a las personas buscar hashtags explícitos como #pedowhore y #preteensex y las conectaba con cuentas que utilizaban los términos para anunciar material sexual infantil a la venta. Tales cuentas a menudo afirman estar dirigidas por los propios niños y utilizan alias abiertamente sexuales que incorporan palabras como «putita para ti»

Las cuentas de Instagram que ofrecen a la venta material sexual ilícito no suelen publicarlo abiertamente, sino que publican «menús» de contenido. Algunas cuentas invitan a los compradores a encargar actos específicos. Algunos menús incluyen precios de vídeos de niños haciéndose daño a sí mismos e «imágenes del menor realizando actos sexuales con animales», según descubrieron investigadores del Observatorio de Internet de Stanford. Al precio adecuado, los niños están disponibles para «encuentros» en persona La promoción de contenidos sexuales para menores infringe las normas establecidas por Meta, así como la legislación federal.

En respuesta a las preguntas del Journal, Meta reconoció problemas en sus operaciones de aplicación de la ley y dijo que ha creado un grupo de trabajo interno para abordar las cuestiones planteadas. «La explotación infantil es un crimen horrible», dijo la compañía, y añadió: «Estamos investigando continuamente formas de defendernos activamente contra este comportamiento»

Meta afirmó que en los últimos dos años ha desmantelado 27 redes de pedofilia y que planea más eliminaciones. Desde que recibió las consultas del Journal, la plataforma dijo que ha bloqueado miles de hashtags que sexualizan a los niños, algunos con millones de publicaciones, y restringió sus sistemas para que no recomienden a los usuarios buscar términos que se sabe que están asociados con el abuso sexual. También ha dicho que está trabajando para evitar que sus sistemas recomienden a adultos potencialmente pedófilos conectarse entre sí o interactuar con los contenidos de otros.

Alex Stamos, director del Observatorio de Internet de Stanford y jefe de seguridad de Meta hasta 2018, dijo que controlar incluso el abuso obvio probablemente requeriría un esfuerzo sostenido.

«Que un equipo de tres académicos con acceso limitado pudiera encontrar una red tan enorme debería encender las alarmas a Meta», dijo, señalando que la compañía tiene herramientas mucho más efectivas para mapear su red de pedofilia que personas comunes. «Espero que la empresa reinvierta en investigadores humanos», añadió.

Los obstáculos técnicos y legales dificultan la determinación de la magnitud total de la red para cualquier persona ajena a Meta.

Dado que las leyes sobre contenido sexual infantil son extremadamente amplias, investigar incluso su promoción abierta en una plataforma pública es legalmente delicado.

En su informe, el Journal consultó a expertos académicos en seguridad infantil en redes. El Observatorio de Internet de Stanford, una división del Centro de Política Cibernética de la universidad, centrada en el abuso de las redes sociales, elaboró un análisis cuantitativo independiente de las funciones de Instagram que ayudan a los usuarios a conectarse y encontrar contenidos.

El Wall Street Journal también se puso en contacto con el Rescue Lab de la UMass, que evaluó cómo encajan los pedófilos en Instagram en el amplio mundo de la explotación infantil en redes. Utilizando métodos diferentes, ambas entidades pudieron identificar rápidamente comunidades a gran escala que promovían el abuso sexual con fines delictivos.

Las cuentas de prueba creadas por los investigadores que visualizaban una sola cuenta de la red recibían inmediatamente recomendaciones «sugeridas para ti» de supuestos vendedores y compradores de contenido sexual infantil, así como de cuentas que enlazaban con sitios de comercio de contenidos fuera de la plataforma. Bastaba con seguir un puñado de estas recomendaciones para inundar una cuenta de prueba con contenidos que sexualizaban a niños.

El Observatorio de Internet de Stanford utilizó hashtags asociados al sexo entre menores para encontrar 405 vendedores de lo que los investigadores denominaron material sexual infantil «autogenerado», es decir, cuentas supuestamente dirigidas por niños, algunos de los cuales decían tener sólo 12 años. Según los datos recopilados a través de Maltego, un software de mapeo de redes, 112 de esas cuentas de vendedores tenían en conjunto 22.000 seguidores únicos.

Los creadores y compradores de contenido sexual para menores son sólo un rincón de un ecosistema más amplio dedicado al contenido sexual infantil. Otras cuentas de la comunidad pedófila en Instagram agregan memes a favor de la pedofilia o hablan de su acceso a los niños. Empleados actuales y anteriores de Meta que han trabajado en iniciativas de seguridad infantil en Instagram estiman que el número de cuentas que existen principalmente para seguir este tipo de contenido se cuenta por cientos de miles, si no millones.

Un portavoz de Meta dijo que la empresa trata activamente de eliminar a esos usuarios, y que sólo en enero eliminó 490.000 cuentas por infringir sus políticas de seguridad infantil.

«Instagram es una rampa de acceso a lugares de Internet donde hay abusos sexuales infantiles más explícitos», afirma Brian Levine, director del Rescue Lab de la UMass, que investiga la victimización infantil en Internet y crea herramientas forenses para combatirla. Levine es autor de un informe de 2022 para el Instituto Nacional de Justicia, brazo investigador del Departamento de Justicia, sobre la explotación infantil en Internet.

Instagram, que se calcula que tiene más de 1.300 millones de usuarios, es especialmente popular entre los adolescentes. Los investigadores de Stanford encontraron algunas actividades similares de explotación sexual en otras plataformas sociales más pequeñas, pero dijeron que encontraron que el problema en Instagram es particularmente grave. «La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram», escribieron en un informe cuya publicación está prevista para el 7 de junio.

Instagram afirmó que sus estadísticas internas muestran que los usuarios ven explotación infantil en menos de una de cada 10.000 publicaciones vistas.

El esfuerzo de las plataformas de redes sociales y las fuerzas de seguridad para luchar contra la difusión de pornografía infantil en Internet se centra en gran medida en la búsqueda de imágenes y vídeos confirmados, conocidos como material de abuso sexual infantil o CSAM, que ya se sabe que están en circulación. El Centro Nacional para Menores Desaparecidos y Explotados (National Center for Missing & Exploited Children), una organización estadounidense sin ánimo de lucro que colabora con las fuerzas de seguridad, mantiene una base de datos de huellas digitales de esas imágenes y vídeos y una plataforma para compartir esos datos entre las empresas de Internet.

Los algoritmos de las empresas de Internet cotejan las huellas digitales de las imágenes publicadas en sus plataformas con esa lista e informan al centro cuando las detectan, como exige la legislación federal estadounidense. En 2022, el centro recibió 31,9 millones de denuncias de pornografía infantil, en su mayoría de empresas de Internet, un 47% más que dos años antes.

Meta, con más de 3.000 millones de usuarios a través de sus apps, que incluyen Instagram, Facebook y WhatsApp, es capaz de detectar este tipo de imágenes conocidas si no están encriptadas. Meta recibió el 85% de las denuncias de pornografía infantil presentadas al centro, incluidos unos 5 millones procedentes de Instagram.

La detección automatizada de contenidos de explotación infantil que realiza Meta no puede detectar imágenes nuevas ni esfuerzos por publicitar su venta. Para prevenir y detectar este tipo de actividades no basta con revisar las denuncias de los usuarios, sino que hay que rastrear y desarticular las redes de pedofilia, afirman los miembros actuales y anteriores del personal, así como los investigadores de Stanford. El objetivo es dificultar que estos usuarios conecten entre sí, encuentren contenidos y recluten víctimas.

Este trabajo es vital porque las fuerzas del orden carecen de recursos para investigar más que una pequeña fracción de las pistas que recibe el NCMEC, explica Levine, de la UMass. Eso significa que las plataformas tienen la responsabilidad primordial de impedir que se forme una comunidad y se normalicen los abusos sexuales a menores.

Según Stanford, Meta ha tenido más dificultades que otras plataformas a la hora de llevar a cabo estos esfuerzos, tanto por la debilidad de las medidas de control como por las características de su diseño, que fomentan el descubrimiento de contenidos tanto legales como ilícitos.

El equipo de Stanford encontró 128 cuentas que ofrecían vender material de abusos sexuales a menores en Twitter, menos de un tercio de las que encontraron en Instagram, que tiene una base de usuarios mucho mayor que Twitter. Twitter no recomendaba este tipo de cuentas en la misma medida que Instagram y las eliminaba mucho más rápidamente, según el equipo.

Entre otras plataformas populares entre los jóvenes, Snapchat se utiliza principalmente para sus mensajes directos, por lo que no ayuda a crear redes. Y la plataforma de TikTok es una en la que «este tipo de contenido no parece proliferar», según el informe de Stanford.

Twitter no respondió a las solicitudes de comentarios. TikTok y Snapchat declinaron hacer comentarios.

David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford, dijo: «El problema de Instagram se reduce a las características de descubrimiento de contenido, las formas en que se recomiendan los temas y cuánto depende la plataforma de la búsqueda y los enlaces entre cuentas.» Thiel, que anteriormente trabajó en Meta en cuestiones de seguridad, añadió: «Hay que poner barandillas para que algo que crece tanto siga siendo nominalmente seguro, e Instagram no lo ha hecho »

La plataforma ha tenido problemas para supervisar una tecnología básica: las palabras clave. Los hashtags son una parte fundamental del descubrimiento de contenidos en Instagram, ya que permiten a los usuarios etiquetar y encontrar publicaciones de interés para una comunidad concreta, desde temas generales como #moda o #nba hasta otros más específicos como #embroidery o #spelunking.

Una captura de pantalla tomada por el Observatorio de Internet de Stanford muestra la advertencia y la opción de hacer clic al buscar un hashtag relacionado con la pedofilia en Instagram. Foto: Observatorio de Internet de Stanford

Los pedófilos también tienen sus hashtags elegidos. Términos de búsqueda como #pedobait y variaciones de #mnsfw («menor no seguro para el trabajo») se habían utilizado para etiquetar miles de publicaciones dedicadas a publicitar contenido sexual protagonizado por niños, lo que las hacía fácilmente localizables por los compradores, según descubrieron los investigadores académicos. En respuesta a las preguntas del Journal, Meta ha declarado que está prohibiendo este tipo de términos.

En muchos casos, Instagram ha permitido a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados a material ilegal. En esos casos, una pantalla emergente para los usuarios advertía de que «Estos resultados pueden contener imágenes de abuso sexual infantil» y señalaba que la producción y el consumo de ese material causa un «daño extremo» a los niños. La pantalla ofrecía dos opciones a los usuarios: «Obtener recursos» y «Ver resultados de todos modos»

En respuesta a las preguntas del Journal, Instagram eliminó la opción de que los usuarios vieran los resultados de la búsqueda de términos susceptibles de producir imágenes ilegales. La compañía declinó decir por qué había ofrecido la opción.

Las cuentas pedófilas de Instagram mezclan el descaro con esfuerzos superficiales por velar su actividad, según descubrieron los investigadores. Ciertos emojis funcionan como una especie de código, como la imagen de un mapa -abreviatura de «persona atraída por menores»- o una de «pizza de queso», que comparte sus iniciales con «pornografía infantil», según Levine, de la UMass. Muchos se declaran «amantes de las pequeñas cosas de la vida»

Las cuentas se identifican como «vendedor» o «s3ller», y muchas indican su forma de pago preferida en sus biografías. Estas cuentas de vendedor a menudo transmiten la supuesta edad del niño diciendo que están «en el capítulo 14» o «31 años», seguido de un emoji de una flecha invertida.

Según Levine, de la UMass, algunas de las cuentas mostraban indicios de tráfico sexual, como una en la que aparecía una adolescente con la palabra PUTA garabateada en la cara.

Algunos usuarios que afirman vender contenido sexual de producción propia dicen que son «sin rostro» -ofrecen imágenes sólo del cuello para abajo- debido a experiencias pasadas en las que los clientes les han acosado o chantajeado. Otros se arriesgan y cobran una prima por imágenes y vídeos que podrían revelar su identidad al mostrar su rostro.

Muchas de las cuentas muestran a los usuarios con cicatrices cortantes en el interior de los brazos o los muslos, y varios de ellos citan abusos sexuales en el pasado.

Incluso el contacto a primera vista con una cuenta de la comunidad pedófila de Instagram puede hacer que la plataforma empiece a recomendar a los usuarios que se unan a ella.

Sarah Adams, canadiense y madre de dos hijos, ha creado una audiencia en Instagram que habla de la explotación infantil y de los peligros de compartir demasiado en las redes sociales. Dado su enfoque, los seguidores de Adams a veces le envían cosas inquietantes que han encontrado en la plataforma. En febrero, dijo, uno le envió un mensaje con una cuenta marcada con el término «niños incestuosos»

Adams dijo que accedió a la cuenta -una colección de memes a favor del incesto con más de 10.000 seguidores- sólo durante los pocos segundos que tardó en informar a Instagram, y luego trató de olvidarse de ella. Pero en los días siguientes empezó a recibir noticias de padres horrorizados. Cuando miraban el perfil de Instagram de Adams, decían que les estaban recomendando «niños incestuosos» como resultado del contacto de Adams con la cuenta.

Un portavoz de Meta dijo que «incest toddlers» violaba sus normas y que Instagram se había equivocado al aplicarlas. La empresa dijo que tiene previsto abordar este tipo de recomendaciones inapropiadas en el marco de su nuevo grupo de trabajo sobre seguridad infantil.

Al igual que la mayoría de las plataformas de redes sociales, el núcleo de las recomendaciones de Instagram se basa en patrones de comportamiento, no en la correspondencia de los intereses de un usuario con temas específicos. Este enfoque es eficaz para aumentar la relevancia de las recomendaciones, y funciona de forma más fiable para las comunidades que comparten un conjunto reducido de intereses.

En teoría, este mismo estrechamiento de la comunidad de pedófilos en Instagram debería facilitar a esta última la tarea de cartografiar la red y tomar medidas para combatirla. Documentos revisados previamente por el Journal muestran que Meta ha hecho este tipo de trabajo en el pasado para suprimir redes de cuentas que considera dañinas, como con las cuentas que promueven la deslegitimación electoral en EE.UU. tras los disturbios del 6 de enero en el Capitolio.

Al igual que otras plataformas, Instagram afirma que cuenta con la ayuda de sus usuarios para detectar cuentas que incumplen las normas. Pero esos esfuerzos no siempre han sido eficaces.

A veces, las denuncias de usuarios sobre desnudos en los que aparecía un niño quedaban sin respuesta durante meses, según un análisis de decenas de denuncias presentadas el año pasado por numerosos defensores de la seguridad infantil.

A principios de este año, un activista contra la pedofilia descubrió una cuenta de Instagram que afirmaba pertenecer a una chica que vendía contenido sexual de menores, incluido un post que declaraba: «Esta adolescente está lista para vosotros, pervertidos» Cuando el activista denunció la cuenta, Instagram respondió con un mensaje automático que decía: «Debido al gran volumen de denuncias que recibimos, nuestro equipo no ha podido revisar este post»

Después de que la misma activista denunciara otra publicación, esta vez de una joven con poca ropa y un pie de foto con contenido sexual gráfico, Instagram respondió: «Nuestro equipo de revisión ha determinado que la publicación [de la cuenta] no va en contra de nuestras Normas de la Comunidad» La respuesta sugería al usuario que ocultara la cuenta para evitar ver su contenido.

Un portavoz de Meta reconoció que Meta había recibido las denuncias y no había actuado al respecto. Una revisión de la forma en que la empresa gestionaba las denuncias de abusos sexuales a menores reveló que un fallo de software impedía procesar una parte sustancial de las denuncias de los usuarios, y que el personal de moderación de la empresa no aplicaba correctamente las normas de la plataforma, explicó el portavoz. La empresa dijo que ya ha corregido el error en su sistema de denuncias y está proporcionando nueva formación a sus moderadores de contenido.

Incluso cuando Instagram retira cuentas que venden contenido sexual de menores, no siempre desaparecen.

Según las directrices internas de la plataforma, las sanciones por infringir las normas de la comunidad se imponen generalmente a las cuentas, no a los usuarios ni a los dispositivos. Dado que Instagram permite a los usuarios tener varias cuentas vinculadas, el sistema facilita la evasión de las sanciones. Los usuarios suelen incluir en sus biografías los nombres de las cuentas «de reserva», lo que les permite reanudar las publicaciones para el mismo grupo de seguidores si Instagram las elimina.

En algunos casos, los sistemas de recomendaciones de Instagram socavan directamente los esfuerzos de su propio personal de seguridad. Después de que la empresa decidiera tomar medidas enérgicas contra los enlaces de un servicio específico de transferencia de archivos cifrados famoso por transmitir contenido sexual infantil, Instagram bloqueó las búsquedas de su nombre.

Las sugerencias de hashtags de Instagram basadas en inteligencia artificial no captaron el mensaje. A pesar de negarse a mostrar resultados para el nombre del servicio, la función de autocompletar de la plataforma recomendaba a los usuarios probar variaciones del nombre con las palabras «boys» y «CP» añadidas al final.

La empresa intentó desactivar esos hashtags en su respuesta a las consultas del Journal. Pero a los pocos días Instagram volvió a recomendar nuevas variaciones del nombre del servicio que también conducían a cuentas que vendían supuestos contenidos sexuales para menores.

Tras el barrido inicial de la empresa de las cuentas que Stanford y el Journal habían puesto en su conocimiento, Levine, de la UMass, comprobó algunas de las cuentas restantes de vendedores menores de edad en Instagram. Como antes, al ver incluso una de ellas, Instagram recomendaba otras nuevas. Las sugerencias de Instagram ayudaban a reconstruir la red que el propio personal de seguridad de la plataforma estaba intentando desmantelar.

Un portavoz de Meta dijo que sus sistemas para evitar tales recomendaciones se están construyendo actualmente. Levine calificó de inaceptable el papel de Instagram en la promoción de contenidos y cuentas pedófilas.

«Tira del freno de emergencia», dijo. «¿Valen los beneficios económicos los daños a estos niños?»

Escribe a Jeff Horwitz en jeff.horwitz@wsj.com y a Katherine Blunt en katherine.blunt@wsj.com

Publicado originalmente en el boletín COVID de Meryl

Sugerir una corrección

Entradas Similares