Световния икономически форум и неговите партньори твърдят, че работят за осигуряване на „цифрова безопасност“ – но WSJ току-що ни показа, че партньорът Meta е насочвал клиентите си към сайтове за сексуална злоупотреба с деца

Партньорът е не само огромен проблем (ще предоставя пълния текст на статията в WSJ (Wall Street Journal)), но „цифровата безопасност“ е и евфемизъм за цензура.

Въздействието на предоставянето на цифрова безопасност – според Световния икономически форум

Разбира се, проблемите с цифровата самоличност и здравния паспорт са следните:

  1. че бързо ще се добавят допълнителни функционалности, което ще постави живота ви и всички транзакции в свързана мрежа
  2. че данните ви онлайн могат да бъдат откраднати (особено здравните и банковите ви данни)
  3. парите ви могат да бъдат изключени или обложени с данък по желание
  4. движението и покупките ви могат да бъдат ограничени
  5. вашата мрежа от приятели и сътрудници ще бъде отбелязана и проследена
  6. семейството ви може да бъде принудено да страда заради поведение, което не се харесва на контролиращите. Казаха ми, че в Китай социалният ви рейтинг определя дали можете да наемете или да купите имот или дали децата ви могат да посещават добро училище.

Но нека го направим по-приемливо: става въпрос за правата на човека. Намигване, намигване.

Борбата с вредното съдържание онлайн представлява сложен проблем. Борбата със сексуалните посегателства и експлоатацията на деца, тероризма и езика на омразата, дезинформацията и съдържанието, свързано със самонараняване и самоубийство, е постоянно предизвикателство.

С навлизането на нови технологии необходимостта да се намери баланс между безопасността и неприкосновеността на личния живот в цифровия свят и свободата на изразяване остава жизненоважна.

Осигуряването на безопасни и сигурни онлайн преживявания е от съществено значение както за глобалните предприятия, така и за групите на гражданското общество и отделните хора. Глобалната коалиция за цифрова безопасност на Световния икономически форум обединява разнообразна група лидери, за да ускори сътрудничеството между публичния и частния сектор за справяне с вредното съдържание и поведение в интернет.

Членовете на коалицията разработиха Глобалните принципи за цифрова безопасност, които определят как правата на човека следва да се прилагат в цифровия свят. Работната група на коалицията включва представители на Microsoft, WeProtect Global Alliance, Meta, Amazon, Google, OHCHR (Службата на Върховния комисар на ООН по правата на човека), Ofcom UK, Global Partners Digital.

Принципите са разработени чрез консултации с правителства и регулаторни органи, големи социални медии и технологични платформи, компании за технологии за безопасност и представители на гражданското общество и академичните среди.

Принципите ще послужат като ръководство за всички заинтересовани страни в цифровата екосистема за постигане на напредък в областта на цифровата безопасност на политическо, отраслово и социално равнище. Необходимо е сътрудничество между правителствата, компаниите и участниците в граждански и социални инициативи, за да се гарантира постигането на реално въздействие.

Накратко, принципите включват:

  • Всички поддръжници трябва да си сътрудничат за изграждането на безопасна, надеждна и приобщаваща онлайн среда. [Включва всичко за вас.- Нас]. Политиката и вземането на решения следва да се осъществяват въз основа на доказателства, прозрения и различни гледни точки. Прозрачността е важна и следва да се насърчават иновациите.
  • Подкрепящите правителства следва да правят разлика между незаконно съдържание и съдържание, което е законно, но може да е вредно , и съответно да диференцират всички регулаторни мерки, да гарантират, че законът и политиката зачитат и защитават всички права на потребителите. Те следва да подкрепят жертвите и пострадалите от злоупотреба или вреда.
  • Подкрепящите доставчици на онлайн услуги следва да се ангажират със зачитане на отговорностите за правата на човека и да разработят политики, които да гарантират това, да гарантират, че безопасността е приоритет в целия бизнес и че тя е включена като стандарт при проектирането на функции, и да си сътрудничат с други доставчици на онлайн услуги. [ Какво изобщо е „безопасност“?]

В принципите се признава също така, че групите на гражданското общество и неправителствените организации играят решаваща роля за напредъка в областта на цифровата безопасност и насърчаването на правата на човека; те предоставят ценна информация за въздействието на онлайн безопасността – и онлайн свободата – върху общностите и хората.

„Усъвършенстването на цифровата безопасност е от ключово значение за даване на възможност на хората да се възползват максимално от цифровия свят. Тези принципи бяха създадени като действена, положителна стъпка към създаването на по-безопасно цифрово изживяване за всички и Microsoft остава ангажирана с намирането на решения, които постигат тази цел и зачитат основните човешки права.“

– Кортни Грегоар, главен служител по цифровата безопасност, Microsoft

Принципите вземат предвид и се стремят да допълнят съществуващите принципи, като например Доброволните принципи за противодействие на сексуалното насилие и експлоатация на деца онлайн, Призивът от Крайстчърч за премахване на терористичното и насилствено екстремистко съдържание онлайн, Принципите от Санта Клара, принципите на австралийския комисар по електронна безопасност Safety by Design, рамката за най-добри практики на Партньорството за цифрово доверие и безопасност и много други.

„Правителствата, частният сектор и гражданското общество имат важна роля в предотвратяването на злоупотребите и експлоатацията онлайн, особено при защитата на най-уязвимите членове на обществото. Този нов набор от принципи осигурява важна рамка за по-ефективен отговор на вредите онлайн, включително нашата собствена работа за прекратяване на сексуалното насилие над деца онлайн.“

– Иън Дренън, изпълнителен директор на Световния алианс WeProtect

Meta (новото име на Facebook) беше основен партньор на WEF (по-горе) за насърчаване на цифровата безопасност. Но вместо това Мета, която е собственик на Инстаграм, е улеснявала педофилските мрежи на своята платформа, според подробни изследвания на служителите на Станфордската интернет обсерватория (а тези цензори би трябвало да знаят) и професор от Масачузетския университет, както и на експерти в областта на цифровите технологии като Алекс Стамос, който е основал и ръководи програмата в Станфорд. Wall Street Journal се задълбочи много и не оставя на Мета никаква възможност да се измъкне от това. Тъй като WSJ е зад платена стена, по-долу ще предоставя цялата статия от 7 юни.

https://www.wsj.com/articles/instagram-vast-pedophile-network-4ab7189

Instagram, популярният сайт за социални медии, собственост на Meta Platforms, помага за свързването и популяризирането на огромна мрежа от акаунти, открито посветени на поръчването и закупуването на съдържание с непълнолетни лица, според разследвания на The Wall Street Journal и изследователи от Станфордския университет и Масачузетския университет в Амхърст.

Педофилите отдавна използват интернет, но за разлика от форумите и услугите за прехвърляне на файлове, които обслужват хора, интересуващи се от незаконно съдържание, Instagram не е просто домакин на тези дейности. Нейните алгоритми ги насърчават. Instagram свързва педофилите и ги насочва към продавачите на съдържание чрез системи за препоръки, които отлично свързват тези, които споделят нишови интереси, установяват списанието и академичните изследователи.

Макар и да са извън полезрението на повечето потребители на платформата, сексуализираните акаунти в Instagram нагло демонстрират интересите си. Изследователите установяват, че Instagram дава възможност на хората да търсят откровени хаштагове като #pedowhore и #preteensex и ги свързва с акаунти, които използват тези термини, за да рекламират материали с детски сексуален характер за продажба. Такива акаунти често твърдят, че се управляват от самите деца, и използват откровено сексуални обръщения, включващи думи като „малка уличница за теб“.

Акаунтите в Instagram, предлагащи продажба на незаконни сексуални материали, обикновено не ги публикуват открито, а вместо това публикуват „менюта“ със съдържание. Някои акаунти приканват купувачите да поръчат конкретни действия. Някои менюта включват цени за видеоклипове на деца, които се самонараняват, и „изображения на непълнолетни, които извършват сексуални действия с животни“, установиха изследователи от Станфордската интернет обсерватория. При подходяща цена децата са на разположение за „срещи“ в личен план. Популяризирането на сексуално съдържание за малолетни и непълнолетни нарушава правилата, установени от Мета, както и федералното законодателство.

В отговор на въпросите на списанието Meta призна за проблеми в рамките на своите операции по прилагане на законодателството и заяви, че е създала вътрешна работна група за решаване на повдигнатите въпроси. „Експлоатацията на деца е ужасяващо престъпление“, заяви компанията и добави: „Непрекъснато проучваме начини за активна защита срещу това поведение.“

Meta заяви, че през последните две години е премахнала 27 педофилски мрежи и планира още премахвания. Откакто е получила запитванията на Journal, платформата заяви, че е блокирала хиляди хаштагове, които сексуализират деца, някои от които с милиони публикации, и е ограничила системите си да препоръчват на потребителите да търсят термини, за които е известно, че са свързани със сексуално насилие. Платформата заяви, че работи и по предотвратяване на това системите ѝ да препоръчват на потенциално педофилни възрастни да се свързват помежду си или да взаимодействат със съдържанието си.

Алекс Стамос, ръководител на Станфордската интернет обсерватория и главен служител по сигурността на Meta до 2018 г., заяви, че контролирането дори на очевидните злоупотреби вероятно ще изисква продължителни усилия.

„Това, че екип от трима учени с ограничен достъп може да открие такава огромна мрежа, трябва да задейства аларми в Мета“, каза той, като отбеляза, че компанията разполага с много по-ефективни инструменти за картографиране на своята педофилска мрежа, отколкото външни лица. „Надявам се, че компанията ще инвестира отново в човешки разследващи“, добави той.

Техническите и правните пречки правят определянето на пълния мащаб на мрежата трудно за когото и да било извън Мета.

Тъй като законите, свързани със съдържанието, свързано с детски секс, са изключително широки, разследването дори на откритото му популяризиране в публична платформа е юридически деликатно.

При изготвянето на репортажа си списанието се консултира с академични експерти по въпросите на безопасността на децата онлайн. Интернет обсерваторията на Станфорд, подразделение на Центъра за киберполитика към университета, фокусирано върху злоупотребите в социалните медии, изготви независим количествен анализ на функциите на Instagram, които помагат на потребителите да се свързват и да намират съдържание.

Списанието се обърна и към Лабораторията за спасяване на UMass, която оцени как педофилите в Instagram се вписват в по-големия свят на онлайн експлоатацията на деца. Използвайки различни методи, двете структури успяха бързо да идентифицират мащабни общности, насърчаващи престъпни сексуални посегателства.

Тестовите акаунти, създадени от изследователите, които преглеждаха един-единствен акаунт в мрежата, веднага бяха засегнати от „предложени за вас“ препоръки на предполагаеми продавачи и купувачи на детско сексуално съдържание, както и на акаунти, свързващи се със сайтове за търговия със съдържание извън платформата. Следването само на няколко от тези препоръки е било достатъчно, за да се наводни тестовият акаунт със съдържание, което сексуализира деца.

Станфордската интернет обсерватория използва хаштагове, свързани със секс с непълнолетни, за да открие 405 продавачи на материали, които изследователите наричат „самогенерирани“ материали с детски сексуален характер – или акаунти, за които се твърди, че са управлявани от самите деца, като някои от тях казват, че са на 12 години. Според данните, събрани чрез софтуера за картографиране на мрежи Maltego, 112 от тези акаунти на продавачи са имали общо 22 000 уникални последователи.

Създателите и купувачите на сексуално съдържание за непълнолетни са само част от по-голяма екосистема, посветена на сексуализирано детско съдържание. Други акаунти в педофилската общност в Instagram събират пропедофилски мемета или обсъждат достъпа си до деца. Настоящи и бивши служители на Meta, които са работили по инициативи за детска безопасност в Instagram, изчисляват, че броят на акаунтите, които съществуват предимно, за да следят такова съдържание, е стотици хиляди, ако не и милиони.

Говорител на Meta заяви, че компанията активно се стреми да премахва такива потребители, като само през януари е премахнала 490 000 акаунта за нарушаване на политиките за безопасност на децата.

„Instagram е трамплин към местата в интернет, където има по-открити сексуални посегателства над деца“, казва Брайън Ливайн, директор на Лабораторията за спасяване на UMass, която изследва онлайн виктимизацията на деца и изгражда криминалистични инструменти за борба с нея. Ливайн е автор на доклад от 2022 г. за Националния институт по правосъдие, изследователското звено на Министерството на правосъдието, относно експлоатацията на деца в интернет.

Instagram, който се оценява на повече от 1,3 милиарда потребители, е особено популярен сред тийнейджърите. Изследователите от Станфорд откриват някои подобни сексуално експлоатиращи дейности в други, по-малки социални платформи, но казват, че са установили, че проблемът в Instagram е особено сериозен. „Изглежда, че най-важната платформа за тези мрежи от купувачи и продавачи е Instagram“, пишат те в доклад, чието публикуване е предвидено за 7 юни.

От Instagram заявиха, че вътрешните им статистически данни показват, че потребителите виждат експлоатация на деца в по-малко от един на 10 хил. прегледани поста.

Усилията на платформите за социални медии и правоприлагащите органи за борба с разпространението на детска порнография онлайн се съсредоточават главно върху издирването на потвърдени изображения и видеоклипове, известни като материали за сексуална злоупотреба с деца или CSAM, за които вече се знае, че са в обращение. Националният център за изчезнали и експлоатирани деца, американска организация с нестопанска цел, която работи с правоприлагащите органи, поддържа база данни с цифрови пръстови отпечатъци за такива изображения и видеоклипове и платформа за обмен на такива данни между интернет компаниите.

Алгоритмите на интернет компаниите проверяват цифровите отпечатъци на изображенията, публикувани на техните платформи, спрямо този списък и докладват на центъра, когато ги открият, както изисква федералното законодателство на САЩ. През 2022 г. центърът е получил 31,9 млн. доклада за детска порнография, предимно от интернет компании – с 47% повече в сравнение с две години по-рано.

Meta, с повече от 3 милиарда потребители в своите приложения, които включват Instagram, Facebook и WhatsApp, е в състояние да открие тези видове известни изображения, ако те не са криптирани. На Meta се падат 85% от подадените в центъра доклади за детска порнография, включително около 5 млн. от Instagram.

Автоматичната проверка на Meta за съществуващо съдържание, свързано с експлоатация на деца, не може да открие нови изображения или усилия за рекламиране на тяхната продажба. Предотвратяването и откриването на подобна дейност изисква не само преглед на потребителските доклади, но и проследяване и прекъсване на педофилските мрежи, казват настоящи и бивши служители, както и изследователите от Станфорд. Целта е да се затрудни свързването на такива потребители помежду им, намирането на съдържание и набирането на жертви.

Тази работа е жизненоважна, тъй като правоприлагащите органи не разполагат с ресурси за разследване на повече от малка част от сигналите, които NCMEC получава, казва Левин от UMass. Това означава, че платформите носят основната отговорност да предотвратят формирането на общност, която да нормализира сексуалното насилие над деца.

Meta се бори с тези усилия повече от другите платформи както поради слабото правоприлагане, така и поради характеристиките на дизайна, които насърчават откриването на съдържание както на законни, така и на незаконни материали, установи Станфорд.

Екипът на Станфорд откри 128 акаунта, предлагащи продажба на материали, свързани със сексуална злоупотреба с деца, в Twitter, което е по-малко от една трета от броя на акаунтите, открити в Instagram, който има много по-голяма обща потребителска база от Twitter. Twitter не е препоръчвал такива акаунти в същата степен като Instagram и ги е свалял много по-бързо, установи екипът.

Сред другите платформи, популярни сред младите хора, Snapchat се използва главно заради директните съобщения, така че не помага за създаването на мрежи. А платформата TikTok е една от тези, в които „този тип съдържание не изглежда да се разпространява“, се казва в доклада на Станфорд.

Twitter не отговори на исканията за коментар. TikTok и Snapchat отказаха коментар.

Дейвид Тийл, главен технолог в Станфордската интернет обсерватория, заяви: „Проблемът на Instagram се свежда до функциите за откриване на съдържание, начините, по които се препоръчват темите, и до колко платформата разчита на търсенето и връзките между акаунтите.“ Тийл, който преди това е работил в Meta по въпросите на сигурността и безопасността, добави: „Трябва да се поставят предпазни огради, за да може нещо, което се разраства толкова интензивно, да бъде все още номинално безопасно, а Instagram не го е направил.“

Платформата се бори да контролира една основна технология: ключовите думи. Хаштаговете са основна част от откриването на съдържание в Instagram, като позволяват на потребителите да маркират и намират публикации, които представляват интерес за определена общност – от широки теми като #fashion или #nba до по-тесни като #embroidery или #spelunking.

Екранна снимка, направена от Станфордската интернет обсерватория, показва предупреждението и опцията за кликване при търсене на хаштаг, свързан с педофилия, в Instagram. Снимка: Станфордска интернет обсерватория

Педофилите също имат свои избрани хаштагове. Термини за търсене като #pedobait и вариации на #mnsfw („малолетен не е безопасен за работа“) са били използвани за маркиране на хиляди публикации, посветени на рекламирането на сексуално съдържание с участието на деца, което ги прави лесно откриваеми за купувачите, установяват академичните изследователи. След запитвания от страна на списанието Meta заяви, че е в процес на забрана на подобни термини.

В много случаи Instagram позволява на потребителите да търсят термини, за които собствените ѝ алгоритми знаят, че могат да бъдат свързани с незаконни материали. В такива случаи изскачащ екран за потребителите предупреждаваше, че „Тези резултати може да съдържат изображения на сексуална злоупотреба с деца“, и отбелязваше, че производството и потреблението на такива материали причинява „изключителна вреда“ на децата. Екранът предлагаше две възможности за потребителите: „Получаване на ресурси“ и „Все пак вижте резултатите“.

В отговор на въпросите на списанието Instagram премахна възможността потребителите да виждат резултатите от търсенето на термини, които е вероятно да доведат до появата на незаконни изображения. Компанията отказа да съобщи защо е предложила тази опция.

Педофилските акаунти в Instagram смесват наглостта с повърхностни усилия да завоалират дейността си, установиха изследователите. Определени емоджита функционират като вид код, като например изображение на карта – съкращение за „малолетно лице, привлечено от насилие“ – или такова на „пица със сирене“, което споделя инициалите си с „детска порнография“, според Левин от UMass. Много от тях се обявяват за „любители на малките неща в живота„.

Акаунтите се идентифицират като „продавач“ или „s3ller“, а много от тях посочват предпочитаната форма на плащане в биографиите си. Тези акаунти на продавачи често предават предполагаемата възраст на детето, като казват, че то е „на 14 години“ или „на 31 години“, последвано от емотикон на обратна стрелка.

Някои от акаунтите носят признаци за трафик на хора с цел сексуална експлоатация, казва Левин от UMass, като например един, показващ тийнейджърка с думата WHORE, изписана на лицето ѝ.

Някои потребители, които твърдят, че продават самостоятелно създадено сексуално съдържание, казват, че са „безлики“ – предлагат изображения само от врата надолу – заради минали преживявания, в които клиенти са ги преследвали или изнудвали. Други поемат риска, като заплащат по-висока цена за изображения и видеоклипове, които биха могли да разкрият самоличността им, като покажат лицето им.

Много от акаунтите показват потребители с белези от порязване от вътрешната страна на ръцете или бедрата, а редица от тях посочват сексуално насилие в миналото.

Дори бегъл контакт с акаунт в педофилската общност на Instagram може да предизвика платформата да започне да препоръчва на потребителите да се присъединят към нея.

Сара Адамс, канадска майка на две деца, е изградила аудитория в Instagram, която обсъжда експлоатацията на деца и опасностите от прекомерното споделяне в социалните медии. Предвид нейната насоченост последователите на Адамс понякога ѝ изпращат обезпокоителни неща, на които са се натъкнали в платформата. През февруари, казва тя, един от тях ѝ изпраща съобщение с акаунт, брандиран с термина „инцест на малки деца“.

Адамс каза, че е получила достъп до акаунта – колекция от проинцестни мемета с повече от 10 000 последователи – само за няколкото секунди, които са били необходими, за да докладва на Instagram, след което се е опитала да забрави за него. Но през следващите няколко дни тя започнала да получава сигнали от ужасени родители. Когато погледнали профила на Адамс в Instagram, тя казала, че в резултат на контакта на Адамс с акаунта им се препоръчват „инцестни малки деца“.

Говорител на Мета заяви, че „инцестните малчугани“ нарушават нейните правила и че Instagram е допуснал грешка при прилагането им. Компанията заяви, че планира да се занимае с подобни неподходящи препоръки в рамките на новата си работна група за безопасност на децата.

Както при повечето социално-медийни платформи, основната част от препоръките на Instagram се основават на поведенчески модели, а не чрез съпоставяне на интересите на потребителя с конкретни теми. Този подход е ефикасен за увеличаване на релевантността на препоръките и работи най-надеждно за общности, които споделят тесен набор от интереси.

Теоретично същата тази стегнатост на педофилската общност в Instagram би трябвало да улесни Instagram в картографирането на мрежата и предприемането на мерки за борба с нея. Документи, прегледани по-рано от списанието, показват, че в миналото Мета е вършила подобна работа, за да потисне мрежи от акаунти, които смята за вредни, например с акаунти, насърчаващи делегитимация на изборите в САЩ след бунта на Капитолия на 6 януари.

Подобно на други платформи, Instagram твърди, че привлича своите потребители да помагат за откриването на акаунти, които нарушават правилата. Но тези усилия не винаги са били ефективни.

Според преглед на десетки доклади, подадени през последната година от многобройни защитници на детската безопасност, понякога потребителските доклади за голота, в която е замесено дете, остават без отговор в продължение на месеци.

По-рано тази година активист за борба с педофилията откри акаунт в Instagram, за който се твърдеше, че принадлежи на момиче, продаващо сексуално съдържание за непълнолетни, включително пост, в който се заявяваше: „Тази тийнейджърка е готова за вас, извратеняци“. Когато активистът докладва за акаунта, Instagram отговаря с автоматизирано съобщение, в което се казва: „Поради големия брой съобщения, които получаваме, нашият екип не успя да прегледа този пост.“

След като същият активист докладва за друг пост, този на оскъдно облечено младо момиче с графично сексуален надпис, Instagram отговори: „Нашият екип за преглед установи, че постът [на акаунта] не противоречи на нашите Насоки за общността.“ В отговора се предлага на потребителя да скрие акаунта, за да не вижда съдържанието му.

Говорител на Мета призна, че Мета е получила докладите и не е предприела действия по тях. Прегледът на начина, по който компанията обработва сигналите за сексуално насилие над деца, установи, че софтуерна грешка не позволява да се обработват значителна част от потребителските доклади и че модераторите на компанията не прилагат правилно правилата на платформата, каза говорителят. Компанията заяви, че междувременно е отстранила грешката в системата за подаване на сигнали и предоставя ново обучение на модераторите на съдържание.

Дори когато Instagram премахва акаунти, продаващи съдържание с непълнолетни, те не винаги остават без покритие.

Съгласно вътрешните насоки на платформата санкциите за нарушаване на стандартите на общността обикновено се налагат на акаунти, а не на потребители или устройства. Тъй като Instagram позволява на потребителите да управляват множество свързани акаунти, системата улеснява избягването на смислено правоприлагане. Потребителите редовно посочват в биографиите си джойстиците на „резервни“ акаунти, което им позволява просто да възобновят публикуването на същия набор от последователи, ако Instagram ги премахне.

В някои случаи системите за препоръки на Instagram директно подкопават усилията на собствените ѝ служители по сигурността. След като компанията реши да се пребори с връзките от конкретна услуга за криптиран трансфер на файлове, известна с това, че предава сексуално съдържание за деца, Instagram блокира търсенето на нейното име.

Предложенията за хаштагове на Instagram, управлявани от изкуствен интелект, не получиха съобщението. Въпреки че отказваше да покаже резултати за името на услугата, функцията за автоматично попълване на платформата препоръчваше на потребителите да опитат варианти на името с добавени в края думи „момчета“ и „CP“.

Компанията се опита да деактивира тези хаштагове сред отговора си на запитванията от страна на Journal. Но в рамките на няколко дни Instagram отново препоръчваше нови варианти на името на услугата, които също водеха до акаунти, продаващи предполагаемо съдържание с непълнолетни.

След първоначалната проверка на компанията на акаунтите, за които й съобщиха Станфорд и „Journal“, Левин от UMass провери някои от останалите акаунти на продавачи на непълнолетни в Instagram. Както и преди, разглеждането дори на един от тях накара Instagram да препоръча нови. Предложенията на Instagram помагаха за възстановяването на мрежата, която собственият персонал за безопасност на платформата се опитваше да разруши.

Говорител на Мета заяви, че в момента се изграждат нейните системи за предотвратяване на подобни препоръки. Левин нарече ролята на Instagram в популяризирането на педофилско съдържание и акаунти неприемлива.

„Издърпайте аварийната спирачка“, каза той. „Икономическите ползи заслужават ли вредата за тези деца?“

Пишете на Джеф Хорвиц на адрес jeff.horwitz@wsj.com и на Катрин Блънт на адрес katherine.blunt@wsj.com

Първоначално публикувано в бюлетина COVID на Мерил

Suggest a correction

Подобни статии