Het hele verhaal riekt naar een Brave New World: Nieuwe AI-tool voorspelt wie vaccin gaat weigeren
Volgens de onderzoekers van de Universiteit van Cincinnati die het hulpmiddel ontwikkelden, “kozen veel mensen ervoor om ondanks de COVID-19 vaccin-verplichtingen af te zien van vaccinatie, wat vragen oproept over de psychologie die deze keuzes beïnvloedt.”
Een team van onderzoekers heeft een “krachtige nieuwe tool in kunstmatige intelligentie” (AI) ontwikkeld die kan voorspellen of iemand wel of niet een COVID-19 vaccin zal nemen.
Volgens de Universiteit van Cincinnati maakt dit nieuwe AI-tool “gebruik van een kleine set gegevens uit demografische gegevens en persoonlijke overtuigingen zoals weerstand tegen risico’s of verlies” om “patronen in het denken over beloning en afkeer” bij mensen te identificeren die kunnen helpen bij het verklaren van iemands bereidheid om zich te laten vaccineren.
De onderzoekers presenteerden hun bevindingen in een studie die dinsdag werd gepubliceerd in het Journal of Medical Internet Research Public Health and Surveillance.
De bevindingen van de studie “zouden brede toepassingen kunnen hebben voor het voorspellen van de geestelijke gezondheid en kunnen resulteren in effectievere campagnes voor de volksgezondheid”, aldus de universiteit.
Volgens het onderzoek “kozen velen ervoor om ondanks de COVID-19 vaccin-verplichtingen af te zien van vaccinatie, wat vragen oproept over de psychologie die deze keuzes beïnvloedt”
De onderzoekers beweren dat hun bevindingen “het onderliggende belang aantonen van beoordelingsvariabelen voor de keuze om te vaccins te nemen, wat suggereert dat voorlichting en berichtgeving over vaccins gebruik zou kunnen maken van beoordelingsprofielen om de deelname aan vaccinatieprogramma’s te vergroten.”
Maar critici zoals Brian Hooker, Ph.D., wetenschappelijk hoofdmedewerker van Children’s Health Defense, zeggen dat de nieuwe technologie impliceert dat mensen die vraagtekens zetten bij vaccins psychische problemen hebben:
“De hele aanname hier is dat iemand die niet gehoorzaamd aan de propagandamachine van de overheid, een soort mentaal geval of extreme uitzondering is. De hele zaak riekt naar een Brave New World waar potentieel niet-conforme individuen zullen worden benaderd met berichten gebaseerd op angst en irrationaliteit.”
Hooker zei dat de nieuwe technologie “een geprefabriceerde vervanging is voor wat Big Pharma en gezondheidsinstanties van de overheid vermijden: rationele discussies over wetenschap en geneeskunde die de waarheid over bijwerkingen van vaccins aan het licht zouden kunnen brengen.”
AI gebruiken om de ’twijfelaars’ aan te pakken?
Nicole Vike, Ph.D., senior onderzoeksmedewerker aan de University of Cincinnati’s College of Engineering and Applied Science, was de hoofdauteur van de paper.
“COVID-19 zal waarschijnlijk niet de laatste pandemie zijn die we de komende decennia zien”, zegt Vike. “Het hebben van een nieuwe vorm van AI voor voorspellingen in de volksgezondheid biedt een waardevol hulpmiddel dat ziekenhuizen kan helpen bij het voorspellen van vaccinatiepercentages en daaruit voortvloeiende infectiepercentages.”
De auteurs van het onderzoek zeiden dat de technologie ook gebruikt zou kunnen worden om “de uitrol van vaccins en de paraatheid in de gezondheidszorg te helpen door locatie-specifieke details te verstrekken” – met andere woorden, geografische gebieden te identificeren die te maken kunnen krijgen met lage vaccinatie- en hoge ziekenhuisopname-cijfers, aldus het onderzoek.
Critici trokken de beweringen van het onderzoek in twijfel en zeiden ook dat ze zich zorgen maakten over de mogelijke negatieve toepassingen van deze technologie.
“Het belangrijkste probleem met onderzoek als dit is de onderliggende vooroordelen. Twijfel om te vaccineren wordt toegeschreven aan de (afwijkende) psychologie van de proefpersonen, en niet gezien als twijfel over de werkzaamheid en veiligheid van het vaccin, of de vaccins in kwestie,” zei Michael Rectenwald, Ph.D., auteur van “Google Archipelago: De digitale goelag en de simulatie van vrijheid”
Als gevolg hiervan, zegt Rectenwald, wordt geïmpliceerd dat “als mensen huiverig zijn voor vaccins, de fout eerder bij hen ligt dan bij het vaccin zelf. Vanuit deze aanname probeert het onderzoek vaccinatie als normaal te rechtvaardigen door afwijkende mentale en psychologische kenmerken te koppelen aan terughoudendheid om te vaccineren.”
Dit kan ertoe leiden dat individuen een doelwit worden, aldus Rectenwald:
“Het gebruik van AI om weigering op deze voorwaarden te voorspellen, zou kunnen inhouden dat AI-programma’s worden gemobiliseerd om zich te richten op individuen die terughoudend zijn en deze zelfs te identificeren. We kunnen dan ook AI-programma’s verwachten die twijfelaars proberen te overtuigen met pogingen om deze problematische personen te ‘herprogrammeren’.
“Op zijn minst ligt het identificeren, targeten en heropvoeden van mensen die twijfelen aan een vaccin in het verschiet.”
Scott C. Tips, voorzitter van de National Health Federation, zei dat de nieuwe technologie zorgen baart over de privacy.
Tips zei:
“Het is aan niemand, behalve aan het individu het individu of hij of zij gevaccineerd wil worden. Waarom zou iets of iemand gezondheidsbeslissingen moeten voorspellen? Voorspellende AI op dit gebied is niets anders dan een oplossing die een probleem zoekt. Er is hier geen probleem. Eigenlijk zouden we blij moeten zijn dat er mensen zijn die niet gevaccineerd willen worden.”
Dr. Kat Lindley, voorzitter van het Global Health Project en directeur van de Global COVID Summit, was het hiermee eens. “Er zijn veel redenen waarom iemand huiverig is voor een vaccinatie en als we vertrouwen op een programma, hoe intelligent ook, om de uitkomst te voorspellen, vrees ik dat we het menselijke element en individuele ervaringen zullen ondermijnen.”
Critici zetten ook vraagtekens bij beweringen over de effectiviteit van de technologie. “AI is slechts zo goed als de programmeur en de parameters die het heeft gekregen, waaronder ook de vooroordelen waarmee het is gemaakt,” zei Lindley.
Tim Hinchliffe, redacteur van The Sociable, zei: “We hebben gezien hoe ChatGPT onzin uitkraamt en we hebben gezien wat een ramp Google Gemini was, dus we kunnen de resultaten heel voorzichtig moeten beoordelen. Zelfs als de mens als team samenwerkt met AI, kunnen de resultaten nog steeds bevooroordeeld zijn.”
“Garbage in, garbage out’ is net zo goed van toepassing op AI-gestuurde beslissingen en resultaten als op andere beslissingen of resultaten die door mensen en ‘domme’ computers worden gemaakt,” aldus Tips. “Als de AI voor zijn antwoorden alleen mainstream-bestanden en gegevens doorzoekt, dan zal hij met onjuiste en bevooroordeelde resultaten komen.”
‘Wie worden de volgende doelwitten van dit attitude-voorspellende apparaat?’
Andere experts suggereerden dat overheden de technologie zouden kunnen misbruiken als wapen tegen het publiek.
“Het is tekenend voor de staat van de geneeskunde en de prioriteiten van onze federale regering om te zien dat er meer onderzoek wordt gedaan naar hoe ze het gebruik van welk product dan ook dat ze als vaccin definiëren, kunnen vergroten, dan dat de veiligheidsstudies worden gedaan waar het publiek om vraagt,” zei Valerie Borek, associate director en hoofd beleidsanalist van Stand For Health Freedom.
“Dit onderzoek past in de decennialange aanpak om psychologie en ons onderbewustzijn te gebruiken om producten en agenda’s te promoten,” zei ze. “Er bestaat al technologie die biometrische gegevens zoals hartslag, temperatuur en oogbewegingen kan beoordelen, gecombineerd met audio- en locatie-informatie.”
Borek gaf als voorbeeld dat de Centers for Disease Control and Prevention “al gebruik maken van mobiele telefoongegevens voor toezicht op de volksgezondheid”
Borek voegde eraan toe:
“De overheid heeft te veel gegevens om te bestuderen, dus het gebruik van AI is onvermijdelijk voor het toezicht op de volksgezondheid. Hoe lang zal het duren voordat de apparaten die we vrijwillig dragen en bij ons dragen worden gebruikt voor AI-voorspellingen van onze gezondheidskeuzes?
“Zullen die voorspellingen leiden tot overheidsinterventies? We moeten deze vragen stellen aan onze wetgevers en doen wat we kunnen om onze digitale voetafdruk te minimaliseren.”
Volgens Hinchliffe:
“Als ‘AI de houding van mensen kan voorspellen’, dan zou het voorspellen van twijfel of weigering om te vaccineren nog maar het begin zijn. Wat komt hierna? Voorspellen wie een klimaatontkenner is? Hoe zit het met het voorspellen van de mening van mensen over presidentskandidaten en op wie ze waarschijnlijk zullen stemmen? Wie heeft er verkiezingen nodig als de AI al weet wie er gaat winnen?
“Wat gebeurt er als de heropvoeding en propaganda niet werken? Zullen de gegevens over het voorspellen van de keuzes van mensen naar regeringen gaan zodat ze hard kunnen optreden tegen dissidenten? Wie worden de volgende doelwitten van dit keuze-voorspellende apparaat? Ik gok dat dit mensen zijn die ’twijfels hebben’ over het verhaal over klimaatverandering.”
Studie beweert dat AI ‘nauwkeurige voorspellingen kan doen over de keuzes van mensen’
Volgens de aankondiging van de Universiteit van Cincinnati was de ontwikkeling van de nieuwe AI-tool gebaseerd op een onderzoek dat in 2021 in de VS werd uitgevoerd onder een representatieve steekproef van 3.476 volwassenen. Respondenten “gaven informatie zoals waar ze wonen, inkomen, hoogst voltooide opleidingsniveau, etniciteit en toegang tot internet.”
Aan de deelnemers werd gevraagd of ze een COVID-19 vaccin hadden gekregen, waarbij ongeveer 73% van de respondenten aangaf gevaccineerd te zijn, “iets meer dan de 70% van de nationale bevolking die in 2021 gevaccineerd was”, volgens het onderzoek.
Vervolgens werd hen “gevraagd om aan te geven of ze een willekeurige reeks van 48 afbeeldingen leuk of niet leuk vonden op een zevenpuntsschaal van 3 tot -3” om “wiskundige kenmerken van de oordelen van mensen te kwantificeren als ze licht emotionele stimuli waarnemen”
“De beoordelingsvariabelen en demografische gegevens werden vergeleken tussen respondenten die gevaccineerd waren en respondenten die dat niet waren. Drie machine learning benaderingen werden gebruikt om te testen hoe goed het oordeel, de demografische gegevens en de houding ten opzichte van COVID-19 voorzorgsmaatregelen van de respondenten voorspelden of ze het vaccin zouden nemen,” aldus de aankondiging.
Volgens het onderzoek werd “een kleine set demografische variabelen en 15 beoordelingsvariabelen” geïdentificeerd die “vaccingebruik met matige tot hoge nauwkeurigheid en hoge precisie voorspellen”
De aankondiging zegt dat deze bevindingen aantonen “dat kunstmatige intelligentie nauwkeurige voorspellingen kan doen over menselijke keuzes met verrassend weinig gegevens of afhankelijkheid van dure en tijdrovende klinische beoordelingen.”
In dezelfde aankondiging werd Aggelos Katsaggelos , Ph.D., professor in elektrotechniek en computerwetenschappen aan de Northwestern University geciteerd, die beweerde dat “de studie anti-big-data is” omdat de nieuwe technologie “heel eenvoudig kan werken” en zonder de noodzaak van “supercomputers.”
“Het is goedkoop en kan worden toegepast door iedereen die een smartphone heeft. We noemen het “computational cognition AI”. Het is waarschijnlijk dat je in de zeer nabije toekomst andere toepassingen zult zien met betrekking tot afwijkende meningen.” zei Katsaggelos.
Lindley ging hier tegenin. Ze vertelde The Defender “Dit anti-big-data noemen klopt niet, want om een hoog niveau van nauwkeurigheid te kunnen claimen, zou het programma een hoog niveau van inzicht over de twijfel zelf moeten omvatten”
“Het probleem met dit AI-initiatief is dezelfde benadering van de hele bevolking, die geen rekening houdt met individuele zorgen en ervaringen,” zei Lindley. “Als ik iets heb geleerd van het uitoefenen van geneeskunde in de afgelopen 20 jaar, dan is het dat het menselijke element ertoe doet en dat het van nature onvoorspelbaar is.”
‘Topje van de ijsberg’: AI kan ook worden gebruikt voor snelle ontwikkeling van vaccins
Andere AI-gerelateerde technologieën in de gezondheidszorg zijn onlangs geïntroduceerd.
Tijdens de jaarlijkse bijeenkomst van het World Economic Forum (WEF) in januari roemde Albert Bourlap, CEO van Pfizer, de rol van AI bij de ontwikkeling van Paxlovid, een oraal geneesmiddel op recept dat op de markt wordt gebracht als behandeling voor COVID-19. Het werd ontwikkeld in vier maanden tijd, in plaats van in vier jaar.
“Het werd ontwikkeld in vier maanden”, zei Bourla, terwijl de ontwikkeling van een dergelijk medicijn “meestal vier jaar duurt” Hij zei dat AI hielp om de tijd die nodig is voor het “ontdekkingsproces van medicijnen”, waarbij je “echt miljoenen moleculen synthetiseert en dan probeert te ontdekken welke daarvan werkt, aanzienlijk te verminderen”
Bourla schreef deze doorbraak toe aan het redden van “miljoenen levens” en voorspelde meer van dit soort ontwikkelingen in de toekomst. “Het is onze taak om doorbraken te maken die het leven van patiënten veranderen,” zei Bourla. “Met AI kan ik het sneller en beter doen.”
“Ik geloof echt dat we op het punt staan een wetenschappelijke renaissance in de biowetenschappen in te gaan vanwege deze co-existentie van vooruitgang in technologie en biologie,” voegde Bourla eraan toe. “AI is een zeer krachtig instrument. In de handen van slechte mensen kan het slechte dingen doen voor de wereld, maar in de handen van goede mensen, kan het geweldige dingen doen voor de wereld.”
Tijdens dezelfde paneldiscussie van het WEF zei Jeremy Hunt, de minister van Financiën van het Verenigd Koninkrijk, dat AI zou kunnen leiden tot de snelle ontwikkeling en uitrol van vaccins.
“Als we de volgende pandemie hebben, willen we niet een jaar moeten wachten voordat we het vaccin hebben,” zei hij. “Als AI de tijd die nodig is om dat vaccin te ontwikkelen kan terugbrengen tot een maand, dan is dat een enorme stap vooruit voor de mensheid.”
Een WEF-project, voor het eerst aangekondigd in 2019, financiert onderzoek naar het gebruik van “synthetische” AI-gegenereerde “patiënten” en “synthetische” klinische onderzoeksgegevens.
Zorgen over het voorspellend vermogen van AI hebben geleid tot enige actie van wetgevers over de hele wereld. Op 13 maart nam het Europees Parlement de Artificial Intelligence Act aan, die verschillende beperkingen en verboden bevat voor het gebruik van AI in verschillende contexten.
Volgens de Griekse Business Daily is “Emotieherkenning op het werk en in scholen, social scoring, voorspellend politiewerk (wanneer dit alleen gebaseerd is op het profileren van een persoon of het inschatten van zijn kenmerken) – en AI die menselijk gedrag manipuleert of misbruik maakt van de kwetsbaarheden van mensen” verboden door deze wetgeving.
Maar volgens Hinchliffe “is het gebruik van AI om de houding van mensen ten opzichte van vaccins en twijfel over vaccins te voorspellen slechts het topje van de ijsberg”, omdat AI-technologie dan “gebruikt kan worden om houdingen ten opzichte van vrijwel alles te voorspellen”
“Als dat lukt, zal het voorspellen van de houding van mensen leiden tot het voorspellen van hun gedrag. Hun gedrag voorspellen betekent meer over hen weten dan zij over zichzelf weten,” zei hij. “Als mensen eenmaal ‘hackbaar‘ zijn, dan zijn alle kansen verkeken: Ze kunnen gemanipuleerd en gecontroleerd worden op de meest snode manieren.”
Suggest a correction