ВЭФ и его партнеры заявляют о своей приверженности «цифровой безопасности» — но WSJ (Wall Street Journal) только что показал нам, что партнер Meta направлял своих клиентов на сайты, содержащие сцены сексуального насилия над детьми
Не только компания Мета является большой проблемой (я приведу полный текст статьи в журнале Уолл-стрит), но и сама «цифровая безопасность» — лишь эвфемизм цензуры.
Последствия предложения цифровой безопасности — по данным Всемирного экономического форума
Соединение цифровой идентификации с медицинским паспортом, естественно, повлечет за собой возникновение следующих проблем:
- часто требуется быстрое добавление дополнительных функций, которые затем связывают вашу жизнь и все транзакции в единую сеть
- ваши онлайн-данные могут быть украдены (особенно ваши медицинские и банковские данные)
- ваш доступ к деньгам может быть заблокирован либо ваши деньги будут обложены налогом
- ваша свобода передвижения и покупок может быть ограничена
- круг ваших друзей и знакомых может быть раскрыт и отслежен
- ваша семья может быть привлечена к ответственности за поведение, которое не устраивает контролеров. В Китае, как мне сказали, индивидуальный социальный кредитный рейтинг определяет, может ли человек снять или купить квартиру, или могут ли дети посещать хорошую школу.
Но давайте по порядку. Итак, речь идет о правах человека. Так ведь?
Борьба с вредным контентом в Интернете — сложная проблема. Борьба с сексуальным насилием и эксплуатацией детей, терроризмом и разжиганием ненависти, дезинформацией и контентом, связанным с членовредительством и самоубийствами, является постоянной задачей.
С появлением новых технологий по-прежнему важно найти баланс между безопасностью и конфиденциальностью в цифровом мире и свободой выражения мнений.
Обеспечение безопасности в Интернете одинаково важно как для глобального бизнеса, групп гражданского общества, так и для отдельных людей. Глобальная коалиция Всемирного экономического форума по цифровой безопасности объединяет группу лидеров, цель которых — оптимизация сотрудничества между государственным и частным секторами в борьбе с вредоносным контентом и поведением в Интернете.
Члены коалиции разработали Глобальные принципы цифровой безопасности, которые определяют, как права человека должны быть реализованы в цифровом мире. В рабочую группу коалиции входят представители Microsoft, WeProtect Global Alliance, Meta, Amazon, Google, OHCHR (Управление Верховного комиссара ООН по правам человека), Ofcom UK и Global Partners Digital.
Эти принципы были разработаны в ходе консультаций с правительствами и регулирующими органами, крупнейшими социальными медиа и технологическими платформами, компаниями, занимающимися технологиями безопасности, а также представителями гражданского общества и научных кругов.
Принципы призваны служить руководством для всех участников цифровой экосистемы по обеспечению цифровой безопасности на политическом, отраслевом и общественном уровнях. Для достижения реального эффекта необходимо сотрудничество между правительствами, бизнесом и теми, кто участвует в гражданских и социальных инициативах.
В целом, принципы включают следующее:
- Все сторонники должны работать вместе, чтобы создать безопасную, надежную и инклюзивную онлайн-среду. [Включая все, что известно о вас. — Насс]. Политика и решения должны основываться на фактах, доказательствах и различных точках зрения. Прозрачность важна, а инновации должны поощряться.
- Поддерживающие правительства должны различать незаконный контент и контент, который является законным, но потенциально вредным , и дифференцировать все правила в соответствии с правовыми руководящими принципами, а также обеспечить защиту прав пользователей законами и правилами. Они должны поддерживать жертв и пострадавших от злоупотреблений или плохого обращения.
- Поставщики вспомогательных онлайн-услуг должны взять на себя ответственность за соблюдение прав человека и разработать соответствующую политику; они также должны в организации обеспечить приоритет безопасности, которая по умолчанию учитывается при разработке функций; они должны сотрудничать с другими поставщиками онлайн-услуг. [Что вообще такое «безопасность»?]
В Принципах также признается, что группы гражданского общества и неправительственные организации играют важную роль в продвижении цифровой безопасности и прав человека; они дают ценное представление о влиянии онлайн-безопасности — и свободы онлайн — на сообщества и отдельных людей.
«Продвижение цифровой безопасности — это ключ к расширению прав и возможностей людей, чтобы они могли максимально использовать возможности цифрового мира. Эти принципы были разработаны как жизнеспособный, позитивный шаг на пути к более безопасному использованию цифровых технологий для всех, и Microsoft по-прежнему стремится найти решения, которые позволят достичь этой цели и соблюсти основные права человека»
-Кортни Грегуар, главный специалист по цифровой безопасности, Microsoft
Принципы учитывают и дополняют существующие принципы, такие как Добровольные принципы противодействия сексуальному насилию и эксплуатации детей в Интернете, Крайстчерчский призыв к искоренению террористического и насильственного экстремистского контента в Интернете, Принципы Санта-Клары, принципы Safety by Design Комиссара по электронной безопасности Австралии, Digital Trust & Safety Partnership и многие другие. Safety Partnership и многие другие.
«Правительства, частный сектор и гражданское общество — все они должны играть важную роль в предотвращении злоупотреблений и эксплуатации в Интернете, особенно в защите наиболее уязвимых членов общества. Эти новые принципы обеспечивают основу для более эффективного реагирования на проблемы и уязвимость в Интернете, включая нашу собственную работу по прекращению сексуального насилия над детьми в Интернете»
— Иэн Дреннан, исполнительный директор, WeProtect Global Alliance
Meta (новое название Facebook) была ключевым партнером ВЭФ (см. выше) в продвижении цифровой безопасности. Тем не менее, Meta, владеющая Instagram, позволила педофильским сетям существовать на своей платформе, как показывают подробные исследования сотрудников Стэнфордской интернет-обсерватории, а также исследования профессора Университета штата Массачусетс и экспертов по цифровому ландшафту (например, исследования Алекса Стамоса, который основал и возглавляет программу Стэнфорда). Wall Street Journal очень глубоко изучил этот вопрос, не оставив Мета никаких шансов выкрутиться. Поскольку WSJ является платным ресурсом, я приведу полный текст статьи от 7 июня ниже.
https://www.wsj.com/articles/instagram-vast-pedophile-network-4ab7189
Instagram, популярный сайт социальных сетей, принадлежащий платформе Meta , помогает устанавливать контакты и продвигать обширную сеть аккаунтов, открыто занимающихся заказом и покупкой сексуального контента для несовершеннолетних, согласно исследованию Wall Street Journal и исследованиям ученых из Стэнфордского университета и Университета Массачусетса Амхерст.
Педофилы давно пользуются Интернетом, но в отличие от форумов и файлообменных сервисов, ориентированных на людей, заинтересованных в незаконном контенте, Instagram не просто позволяет такую деятельность. Его алгоритмы поощряют ее. Instagram вычисляет педофилов и направляет их к поставщикам контента с помощью алгоритмов рекомендаций, которые отлично справляются с задачей установления связей между пользователями с общими интересами, обнаружили авторы журнала и исследователи.
Аккаунты сексуальной направленности на Instagram, хотя и невидимые для большинства пользователей платформы, бесстыдно демонстрируют свой интерес. Исследователи обнаружили, что Instagram позволяет пользователям искать откровенные хэштеги, такие как #pedowhore и #preteensex, и выводит их на аккаунты, которые используют эти термины для продвижения и продажи материалов сексуального характера для детей. Такие аккаунты часто ведутся от имени детей, и используют откровенно сексуальные обращения (например, «маленькая шлюшка для тебя»).
Аккаунты в Instagram, продающие незаконные сексуальные материалы, обычно не размещают их открыто, а вместо этого публикуют «меню» контента. Некоторые аккаунты предлагают покупателям совершить определенные действия. Некоторые меню включают цены на видео, на которых дети причиняют себе боль, и «изображения несовершеннолетних, совершающих сексуальные действия с животными», — обнаружили исследователи из Стэнфордской обсерватории Интернета. За определённую цену дети доступны для личных «встреч». Пропаганда сексуального контента среди несовершеннолетних нарушает как правила, установленные Мета, так и федеральные законы.
Отвечая на вопросы журнала, компания Meta признала наличие проблем с правоприменением и заявила, что создала внутреннюю целевую группу для решения поднятых вопросов. «Эксплуатация детей — это ужасное преступление», — заявила компания, добавив: «Мы постоянно ищем способы активно противостоять такому поведению»
Meta заявила, что за последние два года она уничтожила 27 педофильских сетей и планирует уничтожить еще больше. После получения запросов WSJ, платформа заявила, что заблокировала тысячи хэштегов, которые сексуализируют детей, некоторые из них имеют миллионы сообщений, и не позволяет своим системам рекомендовать пользователям искать термины, которые, как известно, связаны с сексуальным насилием. Платформа заявила, что она также работает над тем, чтобы ее системы не рекомендовали взрослым людям, потенциально склонным к педофилии, контактировать друг с другом или взаимодействовать с контентом друг друга.
Алекс Стамос, глава Стэнфордской интернет-обсерватории и главный специалист по безопасности Meta до 2018 года, сказал, что даже очевидные злоупотребления можно взять под контроль только с помощью постоянных усилий.
«То, что команда из трех ученых с ограниченным доступом смогла обнаружить такую большую сеть, должно вызвать тревогу в Meta», — сказал он, отметив, что у компании есть гораздо более эффективные инструменты для картирования своей педофильской сети, чем у посторонних. «Я надеюсь, что компания будет продолжать инвестировать в людей, проводящих расследования», — добавил он.
Технические и юридические препятствия затрудняют точное определение масштабов сети кем-либо за пределами Meta.
Поскольку законы, касающиеся детского сексуального контента, чрезвычайно широки, даже расследование открытого продвижения такого контента на публичной платформе является юридически сложным.
Для подготовки своего материала Wall Street Journal обратился к академическим экспертам по детской безопасности в Интернете. Интернет-обсерватория Стэнфорда, подразделение университетского Центра киберполитики, изучающее злоупотребления в социальных сетях, провела независимый количественный анализ функций Instagram, которые могут помочь пользователям общаться и находить контент.
Журнал также обратился в Лабораторию спасения UMass, которая изучила, как педофилы в Instagram вписываются в более широкий мир онлайн-эксплуатации детей. Используя различные методы, оба института смогли быстро выявить крупные сообщества, пропагандирующие преступное сексуальное насилие.
Тестовые аккаунты, созданные исследователями для изучения одного аккаунта в сети, сразу же сталкивались с рекомендациями «вам это может быть интересно» от предполагаемых продавцов и покупателей детского сексуального контента а также аккаунты со ссылками на внеплатформенные торговые площадки. Достаточно было последовать нескольким таким рекомендациям, чтобы тестовый аккаунт был наводнен контентом сексуального характера.
Стэнфордская интернет-обсерватория использовала хэштеги, связанные с сексом несовершеннолетних, чтобы найти 405 продавцов того, что исследователи назвали «самостоятельно созданным» детским сексуальным контентом, то есть аккаунтов, якобы управляемых самими детьми, некоторые из которых заявили, что им всего 12 лет. Согласно данным, собранным с помощью Maltego, программного обеспечения для составления сетевых карт, 112 из этих аккаунтов продавцов имели в совокупности 22 000 уникальных подписчиков.
Создатели и покупатели сексуального контента для несовершеннолетних являются лишь одной частью более крупной экосистемы, которая занимается сексуализированным детским контентом. Другие аккаунты в сообществе педофилов на Instagram агрегируют пропедофильские мемы или обсуждают свое отношение к детям. По оценкам нынешних и бывших сотрудников Meta, которые работали над инициативами по обеспечению детской безопасности в Instagram, количество аккаунтов, в основном посвященных просмотру такого контента, исчисляется сотнями тысяч, если не миллионами.
Представитель Meta заявил, что компания активно пытается вычислять таких пользователей и только в январе удалила 490 000 аккаунтов за нарушение политики детской безопасности.
«Instagram — это ступенька к тем местам в Интернете, где сексуальное насилие над детьми более откровенно», — сказал Брайан Левин, директор лаборатории UMass Rescue Lab, которая исследует виктимизацию детей в Интернете и разрабатывает криминалистические инструменты для борьбы с ней. Левин является автором доклада 2022 года об эксплуатации детей в Интернете для Национального института юстиции, исследовательского подразделения Министерства юстиции.
Instagram, который, по оценкам, насчитывает более 1,3 миллиарда пользователей, особенно популярен среди подростков. Стэнфордские исследователи обнаружили подобную деятельность по сексуальной эксплуатации на других, более мелких социальных платформах, но отметили, что проблема особенно остро стоит на Instagram. «Основной платформой для этих сетей покупателей и продавцов, по-видимому, является Instagram», — пишут они в отчете, который будет опубликован 7 июня.
Instagram заявил, что, по данным его внутренней статистики, пользователи видят эксплуатацию детей менее чем в одном из 10 000 просмотренных сообщений.
Усилия платформ социальных сетей и правоохранительных органов по борьбе с распространением детской порнографии в Интернете в основном сосредоточены на поиске уже распространяемых изображений и видео — известных как материалы сексуального насилия над детьми (или CSAM) . Национальный центр по поиску пропавших и эксплуатируемых детей -американская некоммерческая организация, сотрудничающая с правоохранительными органами — ведет базу данных цифровых отпечатков таких изображений и видео, а также платформу для обмена такими данными между интернет-компаниями.
Алгоритмы интернет-компаний сравнивают цифровые следы изображений, размещенных на их платформах, с изображениями из этого списка и уведомляют центр при обнаружении таких изображений, как того требует федеральное законодательство США. В 2022 году центр получил 31,9 миллиона сообщений о детской порнографии, в основном от интернет-компаний — на 47% больше, чем двумя годами ранее.
Meta, имеющая более 3 миллиардов пользователей в своих приложениях, которые включают Instagram, Facebook и WhatsApp, способна обнаруживать подобные известные изображения, если они не зашифрованы. На долю Meta приходится 85% сообщений о детской порнографии, поступивших в центр, в том числе около 5 миллионов из Instagram.
Однако автоматическая проверка Meta на наличие контента, связанного с эксплуатацией детей, не может обнаружить новые изображения или попытки их продажи. Предотвращение и обнаружение такой деятельности требует не только проверки сообщений пользователей, но и отслеживания и разрушения сетей педофилов, говорят нынешние и бывшие сотрудники центра и исследователи из Стэнфорда. Цель состоит в том, чтобы затруднить этим пользователям связь друг с другом, поиск контента и вербовку жертв.
По словам Левина из UMass, эта работа крайне важна, поскольку правоохранительным органам не хватает ресурсов для расследования более чем крошечной доли сообщений, поступающих в NCMEC. Это означает, что платформы несут основную ответственность за предотвращение формирования сообщества и нормализацию сексуального насилия над детьми.
Meta справляется с этой задачей лучше, чем другие платформы, как из-за слабости правоохранительных органов, так и из-за несовершенных алгоритмов поиска контента, связанного с сексуальным насилием над детьми, а также легального и нелегального контента в целом, говорится в исследовании Стэнфорда.
Команда Стэнфорда обнаружила 128 аккаунтов в Твиттере, которые предлагали на продажу материалы о сексуальном насилии над детьми. Это менее трети от того количества, которое они обнаружили в Instagram, который также имеет гораздо большую пользовательскую базу, чем Twitter. Twitter не рекомендовал такие аккаунты так же активно, как Instagram, и удалял их гораздо быстрее, обнаружила команда.
Из других платформ, популярных среди молодежи, Snapchat в основном используется для обмена прямыми сообщениями и поэтому не способствует созданию сетей. А TikTok — одна из платформ, где контент такого типа, похоже, не распространяется», — говорится в отчете Стэнфорда.
Twitter не ответил на просьбу о комментарии. TikTok и Snapchat отказались от комментариев.
Дэвид Тиль, главный технолог Стэнфордской интернет-обсерватории, сказал: «Проблема Instagram заключается в его функциях обнаружения контента, в том, как рекомендуются темы, и в том, насколько платформа полагается на поиск и связи между аккаунтами» Тиль, который ранее занимался вопросами безопасности в компании Meta, добавил: «Вы должны установить защитные ограждения, чтобы то, что так интенсивно развивается, было номинально безопасным, а Instagram этого не сделал». »
Платформа изо всех сил пытается контролировать фундаментальную технологию: а именно — Ключевые слова. Хэштеги являются центральной частью поиска контента на Instagram. Они позволяют пользователям отмечать и находить сообщения, представляющие интерес для определенного сообщества — от общих тем, таких как #fashion или #nba, до более узких, таких как #embroidery или #spelunking.
На скриншоте, сделанном Стэнфордской обсерваторией Интернета, показано предупреждение и возможность клика при поиске хэштега, связанного с педофилией, в Instagram. Изображение: Стэнфордская интернет-обсерватория
У педофилов также есть свои хэштеги. Такие поисковые запросы, как #pedobait и вариации #mnsfw («minor not safe for work»), использовались для обозначения тысяч постов, рассказывающих о сексуальном контенте с участием детей, чтобы их могли легко найти покупатели, обнаружили исследователи. На вопрос Wall Street Journal компания Meta ответила, что находится в процессе запрета таких терминов.
Во многих случаях Instagram позволял своим пользователям искать термины, которые, как известно его собственным алгоритмам, могут быть связаны с незаконными материалами. В таких случаях всплывающее окно предупреждало пользователей: «Эти результаты могут содержать изображения сексуального насилия над детьми», и указывало, что производство и потребление таких материалов наносит «чрезвычайный вред» детям. Экран предлагал пользователям два варианта: «Восстановить ресурсы» и «Просмотреть результаты в любом случае»
В ответ на вопросы Wall Street Journal, Instagram удалил опцию, которая позволяла пользователям видеть результаты поиска по словам, которые могут содержать незаконные изображения. Компания отказалась сообщить, почему она предложила эту опцию.
Аккаунты педофилов на Instagram сочетают наглость с поверхностными попытками замаскировать свою деятельность, обнаружили исследователи. Некоторые эмодзи выступают в качестве своеобразного кода, например, изображение карты — сокращение от «несовершеннолетний» — или изображение «сырной пиццы» с инициалами «детская порнография», по словам Левина из UMass. Многие объявляют себя «любителями мелочей жизни»
Аккаунты называют себя «продавцами» или «s3llers», и многие указывают в своих биографиях предпочитаемую форму оплаты. Рассказы продавцов передают часто предполагаемый возраст ребенка, говоря, что он «на 14-й главе» или «31 год», после чего следует эмодзи с обратной стрелкой.
По словам Левина из UMass, некоторые из аккаунтов содержат ссылки на торговлю сексом, например, на одном из них изображен подросток со словом WHORE на лице.
Некоторые пользователи, которые утверждают, что продают секс-контент собственного производства, говорят, что они «безлики» — предлагают только изображения от шеи вниз — из-за прошлого опыта преследования или шантажа со стороны клиентов. Другие идут на риск и берут дополнительную плату за изображения и видео, которые могут раскрыть их личность, показав их лицо.
Во многих аккаунтах пользователи изображены со шрамами на внутренней стороне рук или бедер, а некоторые из них утверждают, что в прошлом подвергались сексуальному насилию.
Даже мимолетный контакт с аккаунтом в сообществе педофилов Instagram может привести к тому, что платформа начнет рекомендовать пользователям присоединиться к нему.
Сара Адамс, канадская мать двоих детей, создала на Instagram аудиторию, обсуждающую вопросы эксплуатации детей и опасности «чрезмерного распространения информации» в социальных сетях. Из-за ее тематики подписчики Адамс иногда присылают ей тревожащие вещи, которые они обнаружили на платформе. В феврале, по ее словам, кто-то прислал ей сообщение с аккаунта, заклейменного термином «инцест»
По словам Адамс, она зашла на этот аккаунт — коллекцию инцест-мемов с более чем 10 000 подписчиков — только на несколько секунд, которые потребовались ей, чтобы сообщить об этом в Instagram, а затем постаралась забыть об этом. Но в течение следующих нескольких дней она продолжала получать сообщения от ужаснувшихся родителей. Когда они смотрели на профиль Адамс в Instagram, им рекомендовали «малышей для инцеста» и все потому, что у Адамс был короткий контакт с этим аккаунтом.
Представитель Meta заявил, что «Incest Toddlers» нарушает правила компании и что Instagram допустилошибку в применении алгоритма.Компания заявила, что планирует рассмотреть подобные неуместные рекомендации в рамках своей новой целевой группы по детской безопасности.
Как и большинство платформ социальных сетей, рекомендации Instagram основаны на поведенческих моделях, а не на сопоставлении интересов пользователя с конкретными темами. Этот подход эффективен для повышения релевантности рекомендаций, и он наиболее надежно работает для сообществ, которые разделяют узкий набор интересов.
Теоретически, тесное сообщество педофилов на Instagram должно облегчить Instagram составление карты сети и принятие мер по борьбе с ними. Документы, полученные Wall Street Journal, показывают, что в прошлом Мета проводила подобную работу для подавления сетей аккаунтов, которые она считает опасными, например, аккаунтов, которые пропагандировали делегитимизацию выборов в США после беспорядков в Капитолии 6 января.
Как и другие платформы, Instagram говорит, что просит своих пользователей о помощи в выявлении аккаунтов, нарушающих его правила. Но эти усилия не всегда эффективны.
Иногда сообщения пользователей об Обнаженных изображениях детей остаются без ответа месяцами, согласно анализу многочисленных сообщений, поданных в прошлом году многочисленными организациями по защите детей.
В начале этого года активист движения против педофилии обнаружил аккаунт в Instagram, предположительно принадлежащий девушке, которая продавала сексуальные материалы несовершеннолетних, включая сообщение следующего содержания: «Этот подросток готов для вас, извращенцы». Когда активист сообщил об аккаунте, Instagram ответил автоматическим сообщением: «Из-за большого количества сообщений, которые мы получаем, наша команда не смогла рассмотреть это сообщение»
После того, как тот же активист сообщил о другом сообщении, в котором была изображена одетая до пят молодая девушка с графической сексуальной надписью, Instagram ответил: «Наша команда экспертов решила, что сообщение [этого аккаунта] не нарушает наши правила сообщества». В ответе пользователю предлагалось скрыть аккаунт, чтобы избежать просмотра контента.
Представитель Meta подтвердил, что Meta получила сообщения и не ответила на них. Проверка того, как компания обрабатывает сообщения о сексуальном насилии над детьми, показала, что ошибка в программном обеспечении не позволяет обрабатывать большинство сообщений пользователей и что модераторы компании не обеспечивают должного соблюдения правил платформы, сказал пресс-секретарь. Компания заявила, что с тех пор она исправила ошибку в своей системе отчетности и предлагает новое обучение для своих модераторов.
Даже когда Instagram удаляет аккаунты, продающие сексуальный контент для несовершеннолетних, они не всегда исчезают.
Согласно внутренней политике платформы, наказания за нарушение стандартов сообщества обычно налагаются на аккаунты, а не на пользователей или устройства. Поскольку Instagram позволяет своим пользователям вести несколько связанных аккаунтов, система позволяет легко уходить от значимого преследования. Пользователи регулярно указывают в своих биографиях ссылки на «резервные» аккаунты, чтобы в случае их удаления Instagram мог снова опубликовать пост для той же группы подписчиков.
В некоторых случаях рекомендательные системы Instagram напрямую подрывают усилия собственных сотрудников службы безопасности. После того как компания решила пресечь ссылки с определенного сервиса передачи зашифрованных файлов, печально известного передачей детского сексуального контента, Instagram заблокировал поиск по его названию.
Предложения Instagram по хэштегам, основанные на искусственном интеллекте, не получили этого сообщения. Хотя платформа отказывалась показывать результаты по названию файлообменного сервиса, функция автозаполнения рекомендовала пользователям попробовать варианты названия со словами «мальчики» и «CP» в конце.
Компания попыталась отключить эти хэштеги в своем ответе на запрос Wall Street Journal. Но через несколько дней Instagram снова рекомендовал новые варианты названия сервиса, которые также привели к появлению аккаунтов, предположительно продающих сексуальный контент для несовершеннолетних.
После первоначального удаления аккаунтов, на которые обратили внимание Стэнфорд и Wall Street Journal, компанияt levine в UMass проанализировала некоторые из оставшихся аккаунтов продавцов несовершеннолетнего контента на Instagram. Как и раньше, просмотр даже одного из этих аккаунтов приводил к тому, что Instagram рекомендовал новые аккаунты. Предложения Instagram помогли восстановить сеть, которую сотрудники службы безопасности самой платформы находились в процессе ликвидации.
Представитель Meta сказал, что в настоящее время создаются системы для предотвращения подобных рекомендаций. Левин назвал роль Instagram в продвижении педофильского контента и аккаунтов неприемлемой.
«Нажмите на аварийный тормоз», — сказал он. «Стоит ли экономическая выгода того вреда, который получат эти дети?»
Пишите Джеффу Хорвицу на jeff.horwitz@wsj.com и Кэтрин Блант на katherine.blunt@wsj.com
Первоначально опубликовано на сайте Meryl’s COVID Newsletter
Suggest a correction