WEF och dess partner hävdar att de arbetar för att tillhandahålla ”digital säkerhet” – men WSJ har just visat oss att partnern Meta har hänvisat sina kunder till webbplatser för sexuella övergrepp mot barn

Partnern är inte bara ett stort problem (jag kommer att tillhandahålla WSJ-artikelns fullständiga text), utan ”digital säkerhet” är också en eufemism för censur.

Effekterna av att leverera digital säkerhet – enligt World Economic Forum

Naturligtvis är problemen med en digital identitet och ett hälsopass följande:

  1. att ytterligare funktioner snabbt kommer att läggas till, så att ditt liv och alla transaktioner hamnar i ett uppkopplat nät
  2. att dina onlineuppgifter kan stjälas (särskilt dina hälso- och bankuppgifter)
  3. dina pengar kan stängas av eller beskattas efter behag
  4. din rörelsefrihet och dina inköp kan begränsas
  5. ditt vänskapsnätverk och dina medarbetare kommer att noteras och spåras
  6. din familj kan få lida för beteenden som kontrollanterna inte gillar. I Kina avgör din sociala kreditvärdighet om du kan hyra eller köpa en fastighet eller om dina barn kan gå i en bra skola, har jag fått höra.

Men låt oss göra det smakligt: allt detta handlar om mänskliga rättigheter. Flirt, Flirt.

Att ta itu med skadligt innehåll på nätet är ett komplext problem. Det är en ständig utmaning att bekämpa sexuella övergrepp, utnyttjande av barn, terrorism, hatpropaganda, felaktig information, innehåll som handlar om självskada och självmord.

I takt med att ny teknik blir tillgänglig blir det allt viktigare att hitta en balans mellan säkerhet, integritet i den digitala världen och yttrandefriheten.

Att erbjuda trygga och säkra upplevelser på nätet är avgörande för både globala företag, grupper i det civila samhället och enskilda individer. Världsekonomiskt Forums globala koalition för digital säkerhet samlar en bred grupp av ledare för att påskynda det offentlig-privata samarbetet för att hantera skadligt innehåll och beteende på nätet.

Medlemmarna i koalitionen har tagit fram de globala principerna för digital säkerhet, som definierar hur mänskliga rättigheter ska omsättas i den digitala världen. I koalitionens arbetsgrupp ingår representanter från Microsoft, WeProtect Global Alliance, Meta amazon, Google, OHCHR (FN:s högkommissarie för mänskliga rättigheter), Ofcom UK och Global Partners Digital.

Principerna har tagits fram genom samråd med regeringar, tillsynsmyndigheter, stora sociala medier, teknikplattformar, företag inom säkerhetsteknik samt företrädare för det civila samhället och den akademiska världen.

Principerna kommer att fungera som en vägledning för alla intressenter i det digitala ekosystemet för att främja digital säkerhet på politisk, industriell och social nivå. Samarbete mellan regeringar, företag och de som är involverade i civila och sociala initiativ krävs för att säkerställa att en verklig påverkan görs.

Sammanfattningsvis omfattar principerna följande:

  • Alla supportrar bör samarbeta för att skapa en säker, pålitlig och inkluderande onlinemiljö. [Inkluderar allt om dig.-Nass]. Policy och beslutsfattande bör baseras på bevis, insikter och olika perspektiv. Transparens är viktigt, och innovation bör främjas.
  • Stödjande regeringar bör skilja mellan olagligt innehåll och innehåll som är lagligt, men kan vara skadligt och differentiera alla regleringsåtgärder i enlighet därmed, säkerställa att lagar och policyer respekterar och skyddar alla användarrättigheter. De bör stödja offer och överlevare av övergrepp eller skada.
  • Stödjande leverantörer av onlinetjänster bör åta sig att respektera mänskliga rättigheter och utforma policyer för att säkerställa att de gör det, se till att säkerhet prioriteras i hela verksamheten och att den införlivas som standard när funktioner utformas samt samarbeta med andra leverantörer av onlinetjänster. [ WTF är ”säkerhet” förresten?]

Principerna erkänner också att grupper i det civila samhället och icke-statliga organisationer spelar en avgörande roll för att främja digital säkerhet och mänskliga rättigheter. De ger värdefulla insikter om hur onlinesäkerhet – och frihet på nätet – påverkar samhällen och individer.

”Att främja digital säkerhet är avgörande för att människor ska kunna göra det mesta av den digitala världen. Dessa principer skapades som ett handlingsbart, positivt steg mot att skapa en säkrare digital upplevelse för alla och Microsoft förblir engagerat i att hitta lösningar som uppnår detta mål och respekterar grundläggande mänskliga rättigheter.”

-Courtney Gregoire, Chief Digital Safety Officer, Microsoft

Principerna tar hänsyn till och kompletterar befintliga principer som Voluntary Principles to Counter Online Child Sexual Abuse and Exploitation, Christchurch Call to eliminate terrorist and violent extremist content online, Santa Clara Principles, Australian eSafety Commissioner’s Safety by Design principles, Digital Trust & Safety Partnership’s best practices framework, och många andra.

”Regeringar, den privata sektorn och det civila samhället har alla en viktig roll att spela när det gäller att förhindra missbruk och exploatering på nätet, särskilt när det gäller att skydda de mest utsatta i samhället. Den här nya uppsättningen principer utgör ett viktigt ramverk för en mer effektiv hantering av onlineskador, inklusive vårt eget arbete för att få slut på sexuella övergrepp mot barn på nätet.”

– Iain Drennan, verkställande direktör, WeProtect Global Alliance

Meta (det nya namnet på Facebook) var en viktig partner till WEF (ovan) för att främja digital säkerhet. Men istället har Meta, som äger Instagram, underlättat pedofilnätverk på sin plattform, enligt detaljerad forskning av personalen vid Stanford Internet Observatory (och dessa censorer borde veta) och en professor vid U Mass, samt experter på det digitala landskapet som Alex Stamos, som grundade och driver Stanford-programmet. Wall Street Journal gjorde en mycket djupdykning och de lämnar inget utrymme för Meta att slingra sig ur detta. Eftersom WSJ ligger bakom en betalvägg kommer jag att tillhandahålla hela artikeln från 7 juni nedan.

https://www.wsj.com/articles/instagram-vast-pedophile-network-4ab7189

Rubriken hos WSJ säger:
Instagram ansluter stort pedofile-nätverk
Meta-enhetens system för att främja samhällen har väglett användare till childex-innehåll; Företaget säger att det förbättrar interna kontroller

Instagram, den populära sociala mediesajten som ägs av Meta Platforms, hjälper till att ansluta och främja ett stort nätverk av konton som öppet ägnar sig åt beställning och köp av innehåll för minderåriga, enligt undersökningar från The Wall Street Journal och forskare vid Stanford University och University of Massachusetts Amherst.

Pedofiler har länge använt internet, men till skillnad från de forum och filöverföringstjänster som vänder sig till personer som är intresserade av olagligt innehåll, är Instagram inte bara värd för dessa aktiviteter. Dess algoritmer främjar dem. Instagram kopplar samman pedofiler och guidar dem till innehållsförsäljare via rekommendationssystem som utmärker sig genom att koppla samman dem som delar nischintressen, fann Journal och de akademiska forskarna.

Även om de sexualiserade kontona på Instagram är osynliga för de flesta på plattformen, är de fräcka med sitt intresse. Forskarna fann att Instagram gjorde det möjligt för människor att söka på explicita hashtags som #pedowhore och #preteensex och koppla dem till konton som använde termerna för att annonsera ut barnsexmaterial till försäljning. Sådana konton hävdar ofta att de drivs av barnen själva och använder öppet sexuella handtag som innehåller ord som ”little slut for you”.

Instagramkonton som erbjuder försäljning av olagligt sexmaterial publicerar det i allmänhet inte öppet, utan lägger istället upp ”menyer” med innehåll. Vissa konton uppmanar köparna att beställa specifika handlingar. Vissa menyer innehåller priser för videor där barn skadar sig själva och ”bilder där den minderåriga utför sexuella handlingar med djur”, fann forskare vid Stanford Internet Observatory. Till rätt pris är barnen tillgängliga för personliga ”möten” Marknadsföringen av sexuellt innehåll för minderåriga bryter mot regler som fastställts av Meta samt federal lag.

Som svar på frågor från Journal erkände Meta problem inom sin verkställighetsverksamhet och sa att den har inrättat en intern arbetsgrupp för att ta itu med de frågor som tagits upp. ”Utnyttjande av barn är ett fruktansvärt brott”, sa företaget och tillade: ”Vi undersöker kontinuerligt sätt att aktivt försvara oss mot detta beteende.”

Meta sa att det under de senaste två åren har tagit ner 27 pedofilnätverk och planerar fler borttagningar. Sedan de fick Journal-förfrågningarna sa plattformen att de har blockerat tusentals hashtags som sexualiserar barn, vissa med miljontals inlägg, och begränsat sina system från att rekommendera användare att söka efter termer som är kända för att vara förknippade med sexmissbruk. Plattformen säger sig också arbeta för att förhindra att dess system rekommenderar att potentiellt pedofila vuxna tar kontakt med varandra eller interagerar med varandras innehåll.

Alex Stamos, chef för Stanford Internet Observatory och Metas säkerhetschef fram till 2018, sa att det sannolikt skulle krävas en långvarig ansträngning för att få kontroll över även uppenbara missbruk.

”Att ett team bestående av tre akademiker med begränsad tillgång kunde hitta ett så stort nätverk borde sätta igång larm hos Meta”, sa han och noterade att företaget har mycket mer effektiva verktyg för att kartlägga sitt pedofilnätverk än vad utomstående gör. ”Jag hoppas att företaget återinvesterar i mänskliga utredare”, tillade han.

Tekniska och juridiska hinder gör det svårt för någon utanför Meta att exakt mäta nätverkets fulla omfattning.

Eftersom lagarna kring barnsexinnehåll är extremt breda, är det juridiskt känsligt att undersöka även den öppna marknadsföringen av det på en offentlig plattform.

I sin rapportering rådfrågade Journal akademiska experter på barnsäkerhet online. Stanfords Internet Observatory, en avdelning inom universitetets Cyber Policy Center som fokuserar på missbruk av sociala medier, tog fram en oberoende kvantitativ analys av de Instagram-funktioner som hjälper användare att hitta innehåll.

The Journal kontaktade också UMass Rescue Lab, som utvärderade hur pedofiler på Instagram passar in i den större världen av online-exploatering av barn. Med hjälp av olika metoder kunde båda enheterna snabbt identifiera storskaliga gemenskaper som främjar kriminella sexuella övergrepp.

Testkonton som skapats av forskare som tittade på ett enda konto i nätverket träffades omedelbart av ”suggested for you”-rekommendationer från påstådda säljare och köpare av barnsexinnehåll, samt konton som länkade till handelsplatser för innehåll utanför plattformar. Att följa bara en handfull av dessa rekommendationer var tillräckligt för att översvämma ett testkonto med innehåll som sexualiserar barn.

Stanford Internet Observatory använde hashtags associerade med sex med minderåriga för att hitta 405 säljare av vad forskarna kallade ”självgenererat” barnsexmaterial – eller konton som påstods drivas av barn själva, vissa sa att de var så unga som 12 år. Enligt data som samlats in via Maltego, en programvara för nätverkskartläggning, hade 112 av dessa säljarkonton tillsammans 22 000 unika följare.

Skapare och köpare av innehåll för minderåriga är bara en del av ett större ekosystem som ägnar sig åt sexualiserat innehåll för barn. Andra konton i pedofilgemenskapen på Instagram samlar memes som förespråkar pedofili eller diskuterar deras tillgång till barn. Nuvarande och tidigare Meta-anställda som har arbetat med barnsäkerhetsinitiativ på Instagram uppskattar att antalet konton som främst finns för att följa sådant innehåll är i de höga hundratusentals, om inte miljoner.

En talesman för Meta sa att företaget aktivt försöker ta bort sådana användare och tog ner 490 000 konton för att bryta mot sina barnsäkerhetspolicyer bara i januari.

”Instagram är en inkörsport till platser på internet där det förekommer mer explicita sexuella övergrepp mot barn”, säger Brian Levine, chef för UMass Rescue Lab, som forskar om barn som utsätts för brott på nätet och bygger kriminaltekniska verktyg för att bekämpa detta. Levine är en av författarna till en rapport från 2022 för National Institute of Justice, justitiedepartementets forskningsavdelning, om exploatering av barn på internet.

Instagram, som uppskattas ha mer än 1,3 miljarder användare, är särskilt populärt bland tonåringar. Stanfordforskarna fann en del liknande sexuellt exploaterande aktiviteter på andra, mindre sociala plattformar, men sa att de fann att problemet på Instagram är särskilt allvarligt. ”Den viktigaste plattformen för dessa nätverk av köpare och säljare verkar vara Instagram”, skriver de i en rapport som kommer att publiceras den 7 juni.

Instagram säger att deras interna statistik visar att användarna ser exploatering av barn i mindre än ett av 10 000 visade inlägg.

De sociala medieplattformarnas och polisens ansträngningar för att bekämpa spridningen av barnpornografi online handlar till stor del om att jaga bekräftade bilder och videor, så kallat child sexual abuse material, eller CSAM, som redan är kända för att vara i omlopp. National Center for Missing & Exploited Children, en amerikansk ideell organisation som samarbetar med polisen, upprätthåller en databas med digitala fingeravtryck för sådana bilder och videor och en plattform för att dela sådana data mellan internetföretag.

Internetföretagens algoritmer kontrollerar de digitala fingeravtrycken för bilder som publiceras på deras plattformar mot listan och rapporterar tillbaka till centret när de upptäcker dem, vilket krävs enligt amerikansk federal lag. Under 2022 mottog centret 31,9 miljoner rapporter om barnpornografi, främst från internetföretag – en ökning med 47 % jämfört med två år tidigare.

Meta, med mer än 3 miljarder användare i sina appar, som inkluderar Instagram, Facebook och WhatsApp, kan upptäcka dessa typer av kända bilder om de inte är krypterade. Meta stod för 85 % av de barnpornografirapporter som lämnades in till centret, inklusive cirka 5 miljoner från Instagram.

Metas automatiska screening av befintligt innehåll som exploaterar barn kan inte upptäcka nya bilder eller försök att marknadsföra deras försäljning. Att förebygga och upptäcka sådan verksamhet kräver inte bara att man granskar användarrapporter utan också att man spårar och stör pedofilnätverk, säger nuvarande och tidigare medarbetare samt Stanford-forskarna. Målet är att göra det svårt för sådana användare att få kontakt med varandra, hitta innehåll och rekrytera offer.

Detta arbete är mycket viktigt eftersom brottsbekämpande myndigheter saknar resurser för att utreda mer än en bråkdel av de tips som NCMEC får, säger Levine från UMass. Det innebär att plattformarna har det primära ansvaret för att förhindra att ett samhälle bildas och normaliserar sexuella övergrepp mot barn.

Meta har kämpat med dessa ansträngningar mer än andra plattformar både på grund av svag verkställighet och designfunktioner som främjar innehållsupptäckt av lagligt såväl som olagligt material, fann Stanford.

Stanford-teamet hittade 128 konton som erbjöd sig att sälja material om sexuella övergrepp mot barn på Twitter, mindre än en tredjedel av det antal som de hittade på Instagram, som har en mycket större total användarbas än Twitter. Twitter rekommenderade inte sådana konton i samma utsträckning som Instagram, och det tog bort dem mycket snabbare, fann teamet.

Bland andra plattformar som är populära bland ungdomar används Snapchat främst för direktmeddelanden, så det bidrar inte till att skapa nätverk. Och TikToks plattform är en där ”denna typ av innehåll inte verkar spridas”, säger Stanford-rapporten.

Twitter svarade inte på begäran om kommentar. TikTok och Snapchat vägrade att kommentera.

David Thiel, chefsteknolog vid Stanford Internet Observatory, sa: ”Instagrams problem kommer ner till innehållsupptäcktsfunktioner, hur ämnen rekommenderas och hur mycket plattformen förlitar sig på sökning och länkar mellan konton.” Thiel, som tidigare arbetat på Meta med säkerhets- och trygghetsfrågor, tillade: ”Du måste sätta upp skyddsräcken för att något så tillväxtintensivt fortfarande ska vara nominellt säkert, och Instagram har inte gjort det.”

Plattformen har kämpat för att övervaka en grundläggande teknik: nyckelord. Hashtags är en central del av innehållssökningen på Instagram och gör det möjligt för användare att tagga och hitta inlägg som är intressanta för en viss grupp – från breda ämnen som #fashion eller #nba till smalare ämnen som #embroidery eller #spelunking.

En skärmdump som tagits av Stanford Internet Observatory visar varningen och klickalternativet när man söker efter en pedofilirelaterad hashtag på Instagram. Foto: Stanford Internet Observatory: Stanford Internet Observatory

Pedofiler har också sina utvalda hashtags. Sökord som #pedobait och variationer på #mnsfw (”minor not safe for work”) hade använts för att tagga tusentals inlägg som ägnades åt reklam för sexinnehåll med barn, vilket gjorde dem lätta att hitta för köpare, fann de akademiska forskarna. Efter frågor från Journal sa Meta att de håller på att förbjuda sådana termer.

I många fall har Instagram tillåtit användare att söka efter termer som deras egna algoritmer vet kan vara förknippade med olagligt material. I sådana fall varnade en popup-skärm för användare att ”Dessa resultat kan innehålla bilder av sexuella övergrepp mot barn” och noterade att produktion och konsumtion av sådant material orsakar ”extrem skada” för barn. Skärmen erbjöd två alternativ för användarna: ”Skaffa resurser” och ”Se resultaten ändå”

Som svar på frågor från Journal tog Instagram bort möjligheten för användare att visa sökresultat för termer som sannolikt skulle producera olagliga bilder. Företaget avböjde att säga varför det hade erbjudit alternativet.

De pedofila kontona på Instagram blandar fräckhet med ytliga försök att dölja sin verksamhet, fann forskare. Vissa emojis fungerar som ett slags kod, till exempel en bild av en karta – en förkortning för ”minor-attracted person” – eller en av ”cheese pizza”, som delar sina initialer med ”child pornography”, enligt Levine från UMass. Många förklarar sig vara ”älskare av de små sakerna i livet”

Kontona identifierar sig själva som ”säljare” eller ”s3ller”, och många anger vilken betalningsform de föredrar i sina biografier. Dessa säljarkonton förmedlar ofta barnets påstådda ålder genom att säga att de är ”på kapitel 14” eller ”31 år” följt av en emoji av en omvänd pil.

Vissa av kontona visade tecken på sexhandel, säger Levine från UMass, t.ex. ett som visar en tonåring med ordet WHORE klottrat över ansiktet.

Vissa användare som påstår sig sälja egenproducerat sexinnehåll säger att de är ”ansiktslösa” – de erbjuder endast bilder från halsen och nedåt – på grund av tidigare erfarenheter där kunder har förföljt eller utpressat dem. Andra tar risken och tar betalt för bilder och videor som kan avslöja deras identitet genom att visa deras ansikte.

Många av kontona visar användare med skärsår på insidan av armar eller lår, och ett antal av dem berättar om tidigare sexuella övergrepp.

Även en flyktig kontakt med ett konto i Instagrams pedofilcommunity kan leda till att plattformen börjar rekommendera användare att ansluta sig till det.

Sarah Adams, en kanadensisk tvåbarnsmamma, har byggt upp en Instagram-publik som diskuterar exploatering av barn och farorna med överdrivet delande på sociala medier. Med tanke på hennes fokus skickar Adams följare ibland störande saker till henne som de har stött på på plattformen. I februari, säger hon, skickade någon ett meddelande till henne med ett konto som var märkt med termen ”incest toddlers”

Adams sa att hon gick in på kontot – en samling pro-incest memes med mer än 10 000 följare – under bara de få sekunder som det tog att rapportera till Instagram, och försökte sedan glömma bort det. Men under de närmaste dagarna började hon höra från skräckslagna föräldrar. När de tittade på Adams Instagram-profil sa hon att de rekommenderades ”incest-barn” som ett resultat av Adams kontakt med kontot.

En talesman för Meta sa att ”incest toddlers” bröt mot dess regler och att Instagram hade gjort fel vid verkställandet. Företaget sa att det planerar att ta itu med sådana olämpliga rekommendationer som en del av sin nya arbetsgrupp för barnsäkerhet.

Precis som på de flesta sociala medieplattformar baseras Instagrams rekommendationer på beteendemönster, inte på att matcha en användares intressen med specifika ämnen. Detta tillvägagångssätt är effektivt för att öka rekommendationernas relevans, och det fungerar mest tillförlitligt för grupper som delar en smal uppsättning intressen.

I teorin borde samma snäva intresse för pedofiler på Instagram göra det lättare för Instagram att kartlägga nätverket och vidta åtgärder för att bekämpa det. Dokument som tidigare granskats av Journal visar att Meta har gjort denna typ av arbete tidigare för att undertrycka kontonätverk som de anser vara skadliga, till exempel med konton som främjar valdelegitimering i USA efter upploppet i Capitol den 6 januari.

Precis som andra plattformar säger Instagram att man anlitar sina användare för att upptäcka konton som bryter mot reglerna. Men dessa insatser har inte alltid varit effektiva.

Ibland har användarrapporter om nakenbilder på barn förblivit obesvarade i flera månader, enligt en genomgång av ett stort antal rapporter som lämnats in under det senaste året av flera barnsäkerhetsförespråkare.

Tidigare i år upptäckte en anti-pedofilaktivist ett Instagramkonto som påstods tillhöra en flicka som sålde sexuellt innehåll för minderåriga, inklusive ett inlägg som förklarade: ”Den här tonåringen är redo för er pervon.” När aktivisten rapporterade kontot svarade Instagram med ett automatiskt meddelande som sa: ”På grund av det stora antalet rapporter vi får in har vårt team inte kunnat granska det här inlägget.”

Efter att samma aktivist rapporterat ett annat inlägg, detta av en lättklädd ung flicka med en grafiskt sexuell bildtext, svarade Instagram: ”Vårt granskningsteam har funnit att [kontots] inlägg inte strider mot våra riktlinjer för gemenskapen.” I svaret föreslogs att användaren skulle dölja kontot för att undvika att se dess innehåll.

En talesman för Meta bekräftade att Meta hade tagit emot rapporterna och inte agerat på dem. En granskning av hur företaget hanterade rapporter om sexuella övergrepp mot barn visade att ett programfel hindrade en betydande del av användarrapporterna från att behandlas, och att företagets modereringspersonal inte korrekt verkställde plattformens regler, sade talesmannen. Företaget sa att det sedan dess har åtgärdat felet i sitt rapporteringssystem och tillhandahåller ny utbildning till sina innehållsmoderatorer.

Även när Instagram tar bort konton som säljer innehåll med undermåligt sex, förblir de inte alltid borta.

Enligt plattformens interna riktlinjer gäller påföljder för brott mot dess gemenskapsstandarder i allmänhet konton, inte användare eller enheter. Eftersom Instagram tillåter användare att ha flera kopplade konton gör systemet det enkelt att undvika meningsfull tillämpning. Användare anger regelbundet handtagen för ”backup”-konton i sina biografier, vilket gör att de helt enkelt kan återuppta publicering till samma uppsättning följare om Instagram tar bort dem.

I vissa fall undergräver Instagrams rekommendationssystem direkt insatser från sin egen säkerhetspersonal. Efter att företaget beslutat att slå ner på länkar från en specifik krypterad filöverföringstjänst som är ökänd för att överföra barnsexinnehåll, blockerade Instagram sökningar efter dess namn.

Instagrams AI-drivna hashtag-förslag fick inte meddelandet. Trots att de vägrade visa resultat för tjänstens namn rekommenderade plattformens autofyllfunktion att användarna skulle prova variationer på namnet med orden ”boys” och ”CP” tillagda i slutet.

Företaget försökte inaktivera dessa hashtags mitt i sitt svar på frågorna från Journal. Men inom några dagar rekommenderade Instagram återigen nya variationer av tjänstens namn som också ledde till konton som sålde påstått innehåll med underårigt sex.

Efter företagets första svep av konton som uppmärksammats av Stanford och Journal, checkade UMass Levine in på några av de återstående kontona för minderåriga säljare på Instagram. Precis som tidigare ledde visningen av ett enda av dem till att Instagram rekommenderade nya konton. Instagrams förslag hjälpte till att återuppbygga nätverket som plattformens egen säkerhetspersonal var mitt i att försöka demontera.

En talesman för Meta sa att deras system för att förhindra sådana rekommendationer för närvarande håller på att byggas. Levine kallade Instagrams roll för att främja pedofilt innehåll och konton oacceptabelt.

”Dra i nödbromsen”, sa han. ”Är de ekonomiska fördelarna värda skadorna för dessa barn?”

Skriv till Jeff Horwitz på jeff.horwitz@wsj.com och Katherine Blunt på katherine.blunt@wsj.com

Ursprungligen publicerad på Meryl’s COVID Newsletter

Suggest a correction

Similar Posts