Здравните митове — погрешни твърдения за болести, лечение, ваксини, диети или медицински процедури — имат огромно значение за общественото здраве. Те могат да подронят доверието в медицинските институции, да доведат до опасни за здравето решения от страна на хората и да усложнят борбата със съвременните епидемии. В дигиталната ера тези митове се разпространяват по много по-бързи и сложни начини отколкото е било в миналото, благодарение на алгоритмични препоръчващи системи, автоматизирани акаунти (ботове), и групови ефекти („ехо камери“).
Целта на тази статия е да разгледа детайлно как тези механизми функционират, да представи емпирични резултати от научни изследвания, и да даде конкретни съвети и насоки за това как незапознатите читатели могат да разпознават и избягват дезинформацията.
Основни понятия
Понятие | Дефиниция |
Алгоритмични препоръчващи системи / „рецензентски алгоритми“ | Софтуерни системи, които използват машинно обучение, облачни изчисления, анализ на поведението и други данни (харесвания, споделяния, история на гледане/четене), за да определят какво съдържание ще бъде показано на даден потребител. |
Ботове / автоматизирани акаунти | Акаунти в социални мрежи, контролирани частично или напълно от алгоритми, не от хора; Те могат да публикуват, ретуитват, коментират, и да взаимодействат автоматично. |
Ехо камери (echo chambers) / филтър балони | Групи/общности, обикновено затворени, в които потребителите са изложени предимно на вярвания и съдържание, потвърждаващи техните съществуващи възгледи, а алтернативни мнения почти не се появяват. |
Механизми на разпространение
Разпространението на здравни митове онлайн се осъществява чрез взаимодействие на няколко взаимосвързани механизма:
Емоционална ангажираност и улавяне на внимание
Алгоритмите често са оптимизирани за време на задържане, споделяния, коментари — тоест за съдържание, което привлича внимание. Здравните митове често играят по тънки струни като страх, неизвестност, шок, конспирация — всички тези емоционални елементи повишават склонността на хората да кликват, споделят, коментират. Алгоритъмът вижда това поведение и създава модели за ангажираност, които дават по-голяма видимост на такова съдържание.
Алгоритмично усилване (algorithmic amplification)
Когато съдържание от „ниско достоверни“ източници (фалшиви новини, агитационни сайтове, блогове без научна обосновка и т.н.) започне да получава високо ниво на ангажираност, алгоритмите го препоръчват на повече хора — често повече отколкото обоснованото, научно подкрепено съдържание. Това се потвърждава от емпирични изследвания. Например в проучване на Twitter (сега X) (SpringerOpen) с около 2.7 милиона публикации по теми COVID-19 и климатични промени, нискодостоверните туитове са получили средно 19.2 % по-голямо разпространение (измерено с показвания/импресии) по темата COVID-19 и ≈95.8 % повече за темата за климатичните промени, в сравнение с високодостоверните публикации.
Ролеви функции на влиятелни (high‑follower) и верифицирани акаунти
Публикации от акаунти със значителен брой последователи или със „син печат“ (верификация) имат по-голяма вероятност да бъдат виждани от много хора. Когато такива акаунти споделят мит, дори ако той е от съмнителен източник, алгоритъмът може да му даде по-голям „тласък“. В горе цитираното проучване се отчита, че нискодостоверни публикации от верифицирани акаунти са особено усилвани.
Ботове и злонамерени автоматизирани акаунти
Ботовете могат да действат по няколко начина: Масово публикуване или ретуитване на митове, за да се създаде илюзия на масово мнение или подкрепа по даден въпрос; Координирани действия (botnets): група от акаунти, работещи заедно, за да „засилят“ определена теза; Взаимодействие с истински хора, коментари, създаване на дискусии, вкарване на дезинформация в ръцете на хора, които не могат да я оценят критично.
Например изследването „Long‑term assessment of social amplification of risk during COVID-19: challenges to public health agencies amid misinformation and vaccine stance“ разглежда финландски случай, където бот‑акаунти и злонамерени акаунти се включват активно в дискусии, имат значителен обхват и взаимодействие с институцията, която съобщава официална информация (THL — Finnish Institute for Health and Welfare).
Ехо камери и социална мрежова структура
- Сегментирани групи: хора с определени възгледи (например скептици към ваксини, или хора, избягващи медицински интервенции) са склонни да се групират, да следват едни и същи акаунти, да виждат едно и също съдържание.
- Филтриращи алгоритми: системите за препоръка често използват историята на потребителя, неговите взаимодействия, това което вече е харесал, споделил — което води до това, че му се показва съдържание, подобно на това, което вече е консумирал. Това засилва възприемчивостта към митове, ако те вече са в неговия „информационен балон“.
- Обратна връзка: съдържанието, което кара човек да реагира емоционално или да сподели, генерира още ангажираност, алгоритъмът го вижда като „успешно“ и го подхранва, което засилва ехо камерата.
Социална усилваща рамка и рискова перцепция
В рамките на теорията „Social Amplification of Risk Framework“ (SARF), рискът не е само физически или медицински, а и социално произведен. Начинът, по който дадена информация се предава (или изопачава) от медиите, институциите, социалните мрежи (включително ботове и ехо групи), може да усили страховете, подозренията и несигурността. (SpringerLink)
Емпирични примери и резултати
Няколко конкретни изследвания показват, как тези механизми работят на практика:
- „Evaluating Twitter’s algorithmic amplification of low‑credibility content“ — публикувано през 2024, това проучване сравнява публикации по COVID-19 и климатични промени, разделени на „ниско достоверни“ и “високо достоверни“ домейни. Изводът е, че ниско достоверното съдържание получава по‑голямо разпространение, особено когато идва от влиятелни и много на брой последователи, и когато съдържанието е емоционално или токсично.
- „Long‑term assessment … Finland” — изследване на над 1.6 милиона туита за ваксините в Twitter, включително ботовата активност. Показва как агенциите по обществено здраве са били засенчвани или атакувани в дискурса от негативно настроени или мистификационни групи, включително чрез автоматизирани акаунти. Институциите се сблъскват с предизвикателството да останат релевантни, точни и видими.
- Систематичен обзор на динамиките на дезинформацията по време на COVID-19 (Frontiers, 2025) — този обзор събира множество проучвания, анализира модели на разпространение на митове, ролята на източници, социалните мрежи, емоционалния тон и т.н. Една от ключовите констатации е, че митове които обещават бързи решения (лекове, предпазни средства) или са свързани с голям страх, са значително по-успешни в разпространението си. Освен това се указва, че дезинформацията оцелява по-дълго, защото хората често не търсят проверка, или предпочитат само информация, която потвърждава техните предварителни вярвания.
Фактори, които засилват уязвимостта
Някои характеристики на потребителите и екосистемата допринасят силно към това здравни митове да се разпространяват лесно.
- Ниво на здравна грамотност — хората, които не са обучени да оценяват критично медицински и научни данни (напр. не знаят какво е рандомизирано клинично изпитване, каква е разликата между корелация и причинност) са по‑податливи.
- Пристрастия — подтверждаване на вярвания, страх или паника, ретроспективни оценки, и др.
- Социална идентичност — когато здравният мит се съчетава с идеология, религия, политически убеждения. Когато някой разглежда определена група като „свои“, той приема съдържание, което групата подкрепя, без критика.
- Недоверие към институции — ако институциите са били критикувани, скандализирани, ако информацията им се е променила (което се случва често по време на пандемии, защото научните знания еволюират), хората са склонни да се обърнат към алтернативни източници.
- Медийна среда и икономически стимули — много медии и блогове печелят от трафик и реклама. Контент, който привлича внимание (често сензационен или конфликтен) носи приходи. Следователно има стимул да се публикува такова съдържание.
Стратегии за разпознаване и избягване на здравни митове
Разпознаването и избягването на здравни митове онлайн изисква поне базово здравно образование, но също и активни умения за критично мислене, разбиране на алгоритмите на социалните мрежи и познаване на начините, по които дезинформацията функционира.
На първо място, изключително важно е хората преди всичко да се научат да проверяват източника на информация. Това включва най-вече кой е авторът на дадено твърдение и какви доказателства използва, къде е публикувана информацията и с каква цел. Утвърдените научни и здравни институции – като СЗО, Европейския център за превенция и контрол на заболяванията (ECDC), Министерствата на здравеопазването и университетските болници – обикновено предоставят данни, базирани на клинични изследвания, мета-анализи и консенсус сред специалистите. Ако даден текст не съдържа препратки към подобни източници, а се опира на анонимни „вътрешни лица“, неназовани лекари или просто публикации в блогове и социални мрежи, това е сериозен сигнал за съмнение.
Следващата стъпка е внимателно да се анализира езикът, който се използва. Дезинформационните материали често разчитат на сензационни заглавия, емоционално натоварени фрази, апели към страх или възмущение и категорични заключения. Например изрази като „истината, която крият от нас“, „лекарите не искат да знаете това“ или „ваксината ще ви убие“ не са никак характерни за научната и институционална комуникация, която по дефиниция е предпазлива, балансирана и отворена към актуализация. Прекомерната употреба на удивителни знаци, главни букви, лични нападки срещу учени или здравни работници също може да подскаже, че текстът не цели да информира, а да манипулира.
В допълнение, критично мислещият потребител винаги сравнява дадена информация с други източници. Един от най-надеждните начини да се тества валидността на дадено твърдение е да се потърси в различни, независими медии или научни публикации. Ако нещо, което претендира да е „революционно“ или „шокиращо“, не присъства в сериозни медии или не е обект на внимание от страна на научната общност, това е сериозен повод за скептицизъм. В ерата на интернет достъпът до платформи, като PubMed, Google Scholar или дори сайтовете на медицински институти, е свободен и достъпен – при желание всеки може да направи елементарна проверка, дори и без специализирани знания.
Важно е също така да се обърне внимание на начина, по който информацията се разпространява. Ако тя циркулира основно през затворени групи в социалните мрежи, чрез съобщения в месинджъри, без автор, без дата, без възможност за коментар или опровержение – това е още един предупредителен сигнал. Дезинформацията често избягва публична проверка и се разпространява в затворени „ехо камери“, където критиката е нежелана или директно забранена. От своя страна, надеждните източници допускат диалог, предоставят линкове към оригинални документи и често съдържат механизъм за корекция на грешки при нужда.
Особено внимание трябва да се обърне и на това, кой споделя даденото съдържание. Акаунти, които публикуват огромно количество информация за кратко време, без лични мнения или преживявания, без диалог с други потребители и без прозрачност за своята самоличност, могат да бъдат част от автоматизирани мрежи (ботове) или координирани кампании за влияние. Наблюдавайте дали профилът е новосъздаден, дали има реални снимки и дали е активен в множество групи с една и съща тематика. Тези технически признаци не дават 100% сигурност, но при наличие на съмнение е по-добре да се въздържите от взаимодействие със съмнителен акаунт.
На индивидуално ниво, ключово значение има и способността да се разпознават собствените когнитивни склонности. Понякога хората вярват на фалшива информация не защото са наивни, а защото тя резонира с техните страхове, надежди или житейски преживявания. Именно затова е важно човек съзнателно да си постави границата между убеденост и доказателство. Един от ефективните методи за това е така нареченият „контролен въпрос“: Какво би ме накарало да променя мнението си? Ако отговорът е „нищо“, то вероятно вярването не е резултат от информация, а от идентичност – и следователно е по-уязвимо към митове.
Накрая, но не на последно място, трябва да се подчертае значението на умереността в споделянето на съдържание. Дори когато не вярваме в дадена публикация, но я споделим с ирония или възмущение, ние ѝ придаваме видимост. Алгоритмите на социалните мрежи не различават мотивацията зад споделянето – за тях то е знак за значимост. Затова е препоръчително да се въздържаме от разпространение на съмнителни твърдения, дори в критичен контекст, ако не сме сигурни, че можем да ги опровергаем ефективно.
Разпознаването и избягването на здравни митове не е еднократен акт, а продължителен процес на обучение, наблюдение и саморефлексия. То изисква културна и емоционална зрялост, разбиране на медийната екосистема и активна роля в оформянето на една по-здрава и информирана дигитална среда.
Потенциални капани и сложни казуси
- Динамика на несигурността: по времето на нови епидемии или нови ваксини е нормално информацията да се променя — това може да бъде използвано от митотворците. Хората очакват окончателност, но науката всъщност потоянно се актуализира.
- Пост‑истинна ера и доверие: когато доверието в институциите е ниско, дори обоснована информация може да бъде отхвърлена, когато не съвпада с личните убеждения.
- Ефектът „първо чух, значи вярвам“: първата информация, която човек възприема, особено ако е силно емоционална, често е най-влиятелната. Дори ако по-късно се появят опровержения, те често не достигат до същата аудитория.
- Измамни прилики между валидни и невалидни източници: някои сайтове използват научен като стил език, графики, „експерти“, които звучат убедително, но са погрешни или извадени от контекст.
Заключение
Разпространението на здравни митове онлайн е сложен феномен, който не може да се разбере само с обръщане на внимание на съдържанието — не само какво се казва, а кой, как, кога и с какви инструменти. Алгоритмите и ботовете усилват слабостите, които вече са в човешката психика и в социалната среда: страх, незнание, доверие в групите, пристрастия.
За да се справим — не е достатъчно само да критикуваме или да изобличаваме митове — необходимо е да се повишава здравната и медийната грамотност, да се създават прозрачни системи на препоръка, да се развиват инструменти за проверка и да се отговаря активно от институции и платформи.
Основни източници
- Evaluating Twitter’s algorithmic amplification of low‑credibility content: an observational study — Giulio Corsi et al., EPJ Data Science, 2024. SpringerOpen
- Long‑term assessment of social amplification of risk during COVID‑19: challenges to public health agencies amid misinformation and vaccine stance — Ali Unlu, Sophie Truong, Nitin Sawhney, Jonas Sivelä & др., Journal of Computational Social Science, 2024. SpringerLink
- Unravelling the infodemic: a systematic review of misinformation dynamics during the COVID‑19 pandemic, Frontiers in Communication, 2025. Frontiers
- Social media and the spread of misinformation: infectious and a threat to public health – Emily Denniss, Rebecca Lindberg, 2025 Health Promotion International
- Infodemics and health misinformation: a systematic review of reviews – Israel Júnior Borges do Nascimento, Ana Beatriz Pizarro, Jussara M Almeida, Natasha Azzopardi-Muscat, Marcos André Gonçalves, 2022 doi: 10.2471/BLT.21.287654
С подкрепата на Science+