| | | | | | |

„Цялото това нещо прилича на един прекрасен нов свят“: Нов инструмент за изкуствен интелект предсказва колебанията за ваксини

Според изследователите от Университета в Синсинати, които са разработили инструмента, „въпреки задължителните ваксини по Ковид-19, много хора са избрали да се откажат от ваксинация, което повдига въпроси за психологията, лежаща в основата на това как преценката влияе върху този избор.“

Екип от изследователи е разработил „нов мощен инструмент в областта на изкуствения интелект“ (ИИ), който може да предскаже дали някой има или няма вероятност да се подложи на ваксина Ковид-19.

Според Университета в Синсинати новият инструмент на ИИ „използва малък набор от данни от демографски данни и лични преценки, като например отвращение към риск или загуба“, за да идентифицира моделите на „преценка за възнаграждение и отвращение“ при хората, които могат да помогнат да се обясни готовността на човека да се ваксинира.

Изследователите представят своите открития в проучване, публикувано във вторник в Journal of Medical Internet Research Public Health and Surveillance.

Резултатите от изследването „могат да имат широко приложение за прогнозиране на психичното здраве и да доведат до по-ефективни кампании за обществено здраве“, заявиха от университета.

Според проучването „въпреки задължителните ваксини Ковид-19, много хора са избрали да се откажат от ваксинация, което повдига въпроси за психологията, лежаща в основата на това как преценката влияе на този избор.“

Изследователите твърдят, че техните констатации „демонстрират основното значение на променливите на преценката за избора и приема на ваксини, което предполага, че обучението и съобщенията за ваксините могат да бъдат насочени към различните профили на преценката, за да се подобри приемът.“

Но критици като д-р Брайън Хукър, главен научен ръководител на организацията “ Защита на детското здраве“, заявиха, че новата технология предполага, че тези, които поставят под въпрос ваксините, имат проблеми с психичното здраве:

„Цялото внушение тук е, че несъобразяването със стандартите за грижа на правителствената пропагандна машина превръща човека в някакъв вид психично болен или в крайно отклонение. Цялото това нещо мирише на един прекрасен нов свят, в който потенциално несъгласните с изискванията лица са обект на съобщения, основани на страх и ирационалност.“

Хукър заяви, че новата технология „е сглобяем заместител на това, което Биг фарма и правителствените здравни агенции избягват: рационални дискусии за науката и медицината, които биха могли да разкрият истината за нежеланите реакции при ваксините.“

Използване на изкуствен интелект за насочване към „колебаещите се за ваксините“?

Никол Вайк, доктор по философия, старши научен сътрудник в Колежа по инженерни и приложни науки към Университета в Синсинати, е водещ автор на статията.

„Ковид-19 едва ли ще бъде последната пандемия, която ще видим през следващите десетилетия“, казва Вайк. „Наличието на нова форма на изкуствен интелект за прогнозиране в общественото здравеопазване предоставя ценен инструмент, който може да помогне на болниците да се подготвят за прогнозиране на броя на ваксинациите и последващите инфекции.“

Авторите на изследването твърдят, че технологията може да се използва и за „подпомагане на разпространението на ваксините и готовността на здравните заведения чрез предоставяне на подробности за конкретното място“ – с други думи, идентифициране на географски райони, в които може да има нисък брой ваксинации и висок брой хоспитализации, според изследването.

Критиците поставиха под съмнение твърденията в проучването и също така заявиха, че се притесняват от потенциалните неблагоприятни употреби на тази технология.

„Основният проблем при подобни изследвания е основната предпоставка: колебанието за ваксиниране трябва да се обяснява с (ненормалната) психология на изследваните лица, а не с оглед на ефикасността и безопасността на въпросната(ите) ваксина(и)“, заяви д-р Майкъл Ректенвалд, автор на „Архипелагът на Google: „Цифровият ГУЛАГ и симулацията на свобода.“

В резултат на това, казва Ректенвалд, се подразбира, че „ако хората са против ваксините, вината е ендемична за тях, а не за самата ваксина. Изхождайки от тази предпоставка, изследването се опитва да оправдае ваксинирането като нещо нормално, като свързва аномални психични и психологични характеристики с колебанието по отношение на ваксините.“

Това може да доведе до насочване на вниманието към отделни лица, казва Ректенвалд:

„Използването на изкуствен интелект за прогнозиране на колебанията по отношение на ваксините при тези условия може да включва мобилизиране на програми с изкуствен интелект за насочване и дори идентифициране на отделни лица, които се колебаят по отношение на ваксините. Можем също така да очакваме програми с ИИ, които да се стремят да преодолеят колебанията по отношение на ваксините с опити за „препрограмиране“ на споменатите дефектни субекти.

„Най-малкото, предстои идентифициране, насочване и превъзпитаване на колебаещите се във ваксините субекти.“

Скот К. Типс, президент на Националната здравна федерация, заяви, че новата технология поражда опасения относно неприкосновеността на личния живот.

Типс заяви:

„Не е ничия друга работа, освен тази на отделния човек, дали той или тя иска да бъде ваксиниран. Защо някой трябва да предсказва решенията за здравето? „Предсказващият“ изкуствен интелект по този въпрос не е нищо друго освен решение, което търси проблем. Тук няма проблем. Всъщност трябва да се радваме, че има хора, които не искат да бъдат ваксинирани.“

По подобен начин се съгласи и д-р Кат Линдли, президент на Глобалния здравен проект и директор на Глобалната среща на върха по Ковид. „Има много причини, поради които някой може да не желае да се ваксинира, и разчитайки на програма, независимо колко интелигентна е тя, да предвиди резултата, се опасявам, че ще подценим човешкия фактор и индивидуалния опит.“

Критиците също поставят под въпрос твърденията за ефективността на технологията. „ИИ е толкова добър, колкото е добър програмистът и параметрите, които са му дадени, което включва и пристрастията, с които е създаден“, казва Линдли.

Тим Хинчлиф, редактор на The Sociable, каза: „Видяхме как ChatGPT изплюва глупости и видяхме катастрофата с разнообразието, която беше Google Gemini, така че би било най-добре да подхождаме към резултатите с предпазливост. А когато има екип от изкуствен интелект и човек, резултатите все още могат да бъдат пристрастни.“

„“Garbage in, garbage out“ важи в еднаква степен за решенията и резултатите, управлявани от изкуствен интелект, както и за всички други решения или резултати, взети от хора и „глупави компютри“, казва Типс. „Ако ИИ търси отговорите си само в основни файлове и данни, тогава той ще излезе с неправилни и пристрастни резултати.“

„Кои ще бъдат следващите мишени на този апарат за предсказване на нагласи?“

Други експерти предполагат, че правителствата биха могли да злоупотребят с технологията и да я използват като оръжие срещу обществото.

„Показателно за състоянието на медицината и за приоритетите на нашето федерално правителство е, че се правят повече изследвания за това как да се увеличи потреблението на какъвто и да е продукт, който те определят като ваксина, отколкото да се правят проучвания за безопасност, за които обществото плаче“, казва Валери Борек, асоцииран директор и водещ политически анализатор на организацията Stand For Health Freedom.

„Това проучване се вписва в десетилетния подход за използване на психологията и нашето подсъзнание за прокарване на продукти и програми“, каза тя. „Вече има технология, която може да оценява биометрични данни като сърдечен ритъм, температура и движения на очите, съчетани с аудио информация и информация за местоположението.“

Като дава пример, Борек казва, че Центровете за контрол и превенция на заболяванията „вече имат опит в използването на данни от мобилни телефони за наблюдение на общественото здраве.

Борек добави:

„Правителството разполага с твърде много данни, които трябва да претърсва, така че използването на изкуствен интелект е неизбежно за наблюдението на общественото здраве. Колко време преди устройствата, които доброволно носим и пренасяме, да бъдат използвани за прогнози на ИИ за нашия здравен избор?

„Дали тези прогнози ще доведат до някакви правителствени интервенции? Трябва да зададем тези въпроси на нашите законодатели и да направим каквото можем, за да сведем до минимум цифровия си отпечатък.“

Според Хинчлиф:

„Ако „изкуственият интелект може да предсказва нагласите на хората“, тогава предсказването на т.нар. колебливост по отношение на ваксините ще бъде само началото. Какво следва? Предвиждане на това кой отрича климата? Ами предсказването на нагласите на хората към кандидатите за президент и за кого вероятно ще гласуват? Кому са нужни избори, когато изкуственият интелект вече знае кой ще спечели?“

„Какво ще се случи, когато схемите за превъзпитание и пропаганда не сработят? Дали данните за предсказване на нагласите на хората ще отидат при правителствата, за да могат те да се справят с дисидентите? Кои ще бъдат следващите мишени на този апарат за прогнозиране на нагласите? Предполагам, че това ще са хората, които „се колебаят“ относно разказа за изменението на климата.“

Проучване твърди, че изкуственият интелект може да „прави точни прогнози за човешките нагласи“

Според съобщението на Университета в Синсинати разработването на новия инструмент на ИИ се основава на проучване, проведено в САЩ през 2021 г., в което е участвала представителна извадка от 3476 възрастни. Респондентите „са предоставили информация като място на живеене, доходи, най-високо завършено образование, етническа принадлежност и достъп до интернет.“

Участниците са били попитани дали са получили ваксина Ковид-19, като приблизително 73% от респондентите са съобщили, че са ваксинирани, „малко повече от 70% от населението на страната, което е било ваксинирано през 2021 г.“, според проучването.

След това те „бяха помолени да оценят колко харесват или не харесват произволно подреден набор от 48 снимки по седемстепенна скала от 3 до -3“, за да се определят количествено „математическите характеристики на преценките на хората, докато наблюдават леко емоционални стимули.“

„Променливите за преценка и демографските данни бяха сравнени между респондентите, които са били ваксинирани, и тези, които не са били. Бяха използвани три подхода за машинно обучение, за да се провери доколко добре преценката на респондентите, демографските данни и отношението към предпазните мерки на Ковид-19 предсказват дали те ще си поставят ваксината“, се посочва в съобщението.

Според проучването са идентифицирани „малък набор от демографски променливи и 15 променливи за преценка“, които „предсказват приемането на ваксината с умерена до висока точност и висока прецизност.“

В съобщението се казва, че тези констатации показват, „че изкуственият интелект може да прави точни прогнози за човешките нагласи с изненадващо малко данни или разчитайки на скъпи и отнемащи време клинични оценки.“

В същото съобщение се цитира д-р Агелос Кацагелос, даровит професор по електроинженерство и компютърни науки в Северозападния университет, който твърди, че „изследването е насочено срещу големите данни„, защото новата технология „може да работи много просто“ и без необходимост от „суперкомпютри“.

„Тя е евтина и може да се прилага с всеки, който има смартфон. Наричаме я изкуствен интелект за изчислително познание. Вероятно в съвсем близко бъдеще ще видите и други приложения, свързани с промени в преценката“, каза Кацагелос.

Линдли не е съгласен. Тя заяви пред The Defender: „Да наречеш това анти-големи-данни е оксиморон, защото за да може да претендира за високо ниво на точност, програмата би трябвало да обхваща високо ниво на разбиране на самото колебание.“

„Проблемът с тази инициатива за изкуствен интелект е в подхода, обхващащ цялата популация, който не взема предвид никакви индивидуални опасения и преживявания“, казва Линдли. „Ако съм научил нещо, практикувайки медицина през последните 20 години, то е, че човешкият фактор е от значение и той е непредсказуем по своята същност.“

„Върхът на айсберга“: ИИ може да се използва и за бързо разработване на ваксини

Неотдавна бяха въведени и други технологии, свързани с ИИ в сферата на здравеопазването.

На годишната среща на Световния икономически форум (СИФ) през януари главният изпълнителен директор на Pfizer Алберт Бурла похвали ролята на ИИ в разработването на Paxlovid, перорално лекарство с рецепта, продавано като средство за лечение на Ковид-19.

„То беше разработено за четири месеца“, каза Бурла, докато разработването на такова лекарство „обикновено отнема четири години“. Той каза, че изкуственият интелект е помогнал значително да се съкрати времето, необходимо за процеса на „откриване на лекарства“, при който „наистина се синтезират милиони молекули и след това се опитвате да откриете в тях коя от тях действа.“

Бурла отдаде дължимото на този пробив за спасяването на „милиони животи“ и прогнозира още подобни разработки в бъдеще. „Нашата работа е да правим пробиви, които променят живота на пациентите“, каза Бурла. „С помощта на изкуствения интелект мога да го направя по-бързо и по-добре.“

„Наистина вярвам, че сме на път да навлезем в научен ренесанс в науките за живота поради това съжителство на постиженията в технологиите и биологията“, добави Бурла. „ИИ е много мощен инструмент. В ръцете на лоши хора [той] може да направи лоши неща за света, но в ръцете на добри хора [той] може да направи велики неща за света.“

По време на същата дискусия на СИФ Джереми Хънт, канцлер на хазната на Обединеното кралство, заяви, че ИИ може да доведе до бързото разработване и внедряване на ваксини.

„Когато се появи следващата пандемия, не искаме да чакаме една година, преди да получим ваксината“, каза той. „Ако изкуственият интелект може да съкрати времето, необходимо за получаване на ваксината, до един месец, това ще е огромна крачка напред за човечеството.“

Проект на СИФ, обявен за първи път през 2019 г., финансира изследвания за използването на „синтетични“ „пациенти“, генерирани от ИИ, и „синтетични“ данни от клинични изпитвания.

Опасенията относно способността на ИИ да прогнозира доведоха до някои действия от страна на законодателите по света. На 13 март Европейският парламент прие Закон за изкуствения интелект, който съдържа няколко ограничения и забрани за използването на ИИ в различни контексти.

Според гръцкия вестник “ Бизнес дейли“ „разпознаването на емоции на работното място и в училищата, социалното точкуване, прогнозната полицейска дейност (когато се основава единствено на профилиране на дадено лице или оценка на неговите характеристики) и ИИ, който манипулира човешкото поведение или се възползва от уязвимостите на хората“, са забранени от този закон.

И все пак, за Хинчлиф „използването на ИИ за прогнозиране на отношението на хората към ваксините и колебанието за ваксиниране е само върхът на айсберга“, тъй като след това технологията на ИИ може „да се използва за прогнозиране на отношението към почти всичко.“

„Ако е успешно, предсказването на нагласите на хората ще доведе до предсказване на тяхното поведение. Предвиждането на поведението им означава да знаем за тях повече, отколкото те знаят за себе си“, казва той. „Щом хората могат да бъдатхакнати„, тогава всички залози ще бъдат прекратени: Те могат да бъдат манипулирани и контролирани по най-гнусни начини.“

Suggest a correction

Подобни статии