Как можем да използваме ИИ срещу дезинформацията: Ръководство стъпка по стъпка

 

В днешната цифрова ера дезинформацията се разпространява светкавично бързо онлайн, което значително затруднява различаването на истината от лъжата. Особено уязвими са най-младите – според проучване на Станфорд над 80% от учениците в V-VII клас не могат да различат достоверни източници от подвеждаща информация в интернет. За съжаление напредъкът в изкуствения интелект (ИИ или AI) доведе до нови инструменти за създаване на фалшиво съдържание (като deepfake видео и изображения), но същевременно предостави и мощни средства за откриване и противодействие на дезинформацията.
В това ръководство ще откриете практически стъпки, примери и интерактивни дейности как можете да използвате ИИ, за да идентифицирате фалшиви новини и да насърчавате критичното си мислене, както и това на вашите деца или ученици.

 

Стъпка 1: Разберете заплахата от дезинформацията и ролята на ИИ

Първата стъпка е да осъзнаем какъв е проблемът. Дезинформация наричаме умишлено разпространявани фалшиви твърдения (за разлика от неволно сгрешена информация – misinformation). Тя е наистина сериозна заплаха за обществото – по време на COVID-19 например онлайн слухове и митове се разпространяваха масово, засилвайки страха и объркването на хората, което в такива ситуации практически пряко застрашава здравето им. Някои теми стават особено „горещи точки“ за дезинформация: климатичните промени са един показателен пример. През декември 2024 г. цели 13% от цялата онлайн дезинформация в Европа е била съсредоточена върху теми, свързани с климата – повече отколкото дезинформацията за Украйна, ЛГБТ или Близкия изток. Това показва мащаба на проблема и защо е критично важно да можем да разпознаваме неверните твърдения.

Пример: Учител може да започне урок, като покаже на учениците подвеждаща новинарска статия или пост в социалните мрежи и ги попита дали смятат съдържанието за достоверно. Проучванията сочат, че мнозина ученици ще имат затруднения – затова тук на помощ идват технологиите.
Изкуственият интелект може да играе двойна роля – от една страна, същите тези ИИ техники се използват за генериране на фалшиво съдържание (например реалистични изображения на хора, които не съществуват, или видеоклипове, в които публична личност „казва“ неща, които никога не е изричал). Такива висококачествени фалшификати, известни като deepfake, вече широко се използват за разпространение на пропаганда, измами и омраза. От друга страна, обаче, ИИ може да бъде наш съюзник – той предоставя мощни инструменти за откриване и спиране на дезинформацията в цифровите платформи.

 



Големи организации и учени работят вече в тази посока. Например Google създава специализирани набори от данни за обучение на модели, които да проверяват факти по определени теми – наборът Climate-FEVER включва 1535 реални твърдения за климатичните промени, с цел да насърчи разработването на алгоритми за автоматична проверка на климатични твърдения. Такива инициативи показват, че глобалната общност търси начини да използва ИИ за добро – да открива лъжата и да утвърждава истината.

След като сме запознали учениците (и себе си) с това какво е дезинформация и защо е опасна, можем да преминем към конкретни техники и инструменти за борба с нея.

 

Стъпка 2: Проверка на фактите с помощта на ИИ

Една от най-достъпните форми на ИИ в борбата с фалшивите новини е автоматизираната проверка на факти. Съществуват онлайн инструменти, които позволяват бързо да разберем дали дадено твърдение вече е било проверено от надежден източник. Например Google Fact Check Explorer е безплатна платформа, която събира на едно място публикувани проверки на факти от целия свят. Достатъчно е да въведете ключови думи или цялото твърдение, и инструментът ще издири дали независими организации (AFP, Reuters, Snopes, ПолитиФакт и др.) са го опровергали. Fact Check Explorer използва ИИ, за да намира сходства по текст, а също и по и изображения, между вашето запитване и огромна база данни от проверени твърдения (newsinitiative.withgoogle.com). Това означава, че ако ученик попадне на съмнителна новина, може веднага да провери чрез търсачката дали вече има становище по въпроса.

 


Пример:
Учител или родител вижда в социалните мрежи пост със сензационно твърдение – например „Учени откриха чудодейно лекарство, което лекува рак за 24 часа“. Вместо да приемаме на доверие или да се чудим, можем да потърсим това твърдение във Fact Check Explorer. В идеалния случай ИИ системата ще ни покаже налични проверки на фактите – например статия на Reuters или на Световната здравна организация, която обяснява, че няма доказателства за такова лекарство и класифицира твърдението като невярно. Получаваме и пряк линк към източника, така че учениците да прочетат сами опровержението. Това не само спестява време, но и учи младите хора да търсят потвърждение от авторитетни източници, вместо да се доверяват на първото, което видят.

 

Допълнителен съвет: Може да използвате ИИ и по друг начин – чрез чатбот с достъп до информация. Някои съвременни ИИ асистенти (например търсачки с интегриран ИИ) могат да отговарят на въпроси, като посочват източници. Може да зададете въпрос като „Вярно ли е следното твърдение…?“ и ИИ ще се опита да извлече от интернет аргументи „за“ и „против“, често със цитиране на статии.
Важно е обаче да предупредим учениците, че подобни ИИ инструменти понякога допускат грешки. ИИ понякога може и да „халюцинира“ – тоест да прозвучи убедително, но да даде неточна или несъществуваща информация. Затова всеки отговор от ИИ трябва да се приема по-скоро като насока, а не за крайна инстанция. Винаги проверявайте дали ИИ предоставя надеждни източници и окуражете учениците самостоятелно да прочетат източника, вместо да цитират директно отговора на чат-бота.

В процеса на работа ИИ може да ни посочи и подозрителни модели на разпространение на дадена новина. Например, изследвания показват, че фалшивите здравни твърдения често се разпространяват от координирани акаунти (т.нар. ботове) и се възползват от емоционални тригери и ефекта на споделяне в мрежите. Един умен ИИ алгоритъм може да алармира, ако види, че едно и също идентично съобщение се публикува масово от новорегистрирани профили – ясен сигнал, че имаме организирана кампания за дезинформация. Така учениците ще разберат, че не само съдържанието, но и начинът на разпространение може да издаде една лъжа.

Или иначе казано ИИ значително улеснява проверката на текстови твърдения: от бързо търсене на проверени факти, до анализ на модели на споделяне. Но крайната цел е учениците да се научат сами да търсят потвърждения. Изкуственият интелект е инструмент, който ускорява процеса, ала човешката преценка – особено тази на учителя или информирания родител – остава решаваща.

Един ИИ инструмент с добра възможност за търсене на информация с предоставяне на източници е https://www.perplexity.ai/

Може да се търси по текст като “Вярно ли е че….” или “Искам да разбера дали това е вярно …..” така всеки отговор идва с източници и може да ги проверите. Отделно има възможност за търсене само в академични източници, т.е. научни статии. Когато става въпрос за медицина най-добре да се проверят научните източници. 

 

Стъпка 3: Проверка на изображения и видеоклипове (разпознаване на deepfake)

Все по-често дезинформацията идва под формата на визуално съдържание – снимки и видеа, които шокират или заблуждават. Благодарение на ИИ вече е възможно да се генерират напълно реалистични лица на несъществуващи хора, да се манипулират видеоклипове (например да се постави лицето на един човек върху друг – т.нар. deepfake) или да се фабрикуват снимки от неслучили се събития. Тези техники могат да бъдат опасни: висококачествени deepfake видеа са били използвани за политически манипулации и измами. Затова е особено важно да имаме стратегия за проверка на визуалните материали.

Как ИИ помага тук? Има няколко подходящи подхода:

  • Обратно търсене на изображение: Традиционните търсачки като Google Images използват елементи на ИИ (компютърно зрение), за да откриват къде дадено изображение се е появявало преди. Новата функция за изображения на Google Fact Check Explorer дори позволява да качите снимка и автоматично търси из независими проверени източници дали тази снимка е била предмет на фактчекинг.

    Пример: Ако видите странна снимка – например акула, плуваща по наводнена градска улица (популярен фалшив кадър, появявал се след урагани) – можете да я качите в инструмента. ИИ ще сравни снимката с база данни от проверени случаи. В нашия пример веднага ще излязат резултати: оказва се, че тази снимка е била разобличена от Snopes и други проверители, които я маркират като „фалшива“. Като покажете това на учениците те ще видят не само че не бива да вярват на очите си безкритично, но и кога и къде за пръв път е използвано изображението (например може да открием, че за пръв път е публикувано преди години и в съвсем друг контекст). Този подход учи на внимателност към източника и контекста на визуалната информация.
  • ИИ детектори за изкуствено генерирани изображения: Развиват се и специализирани инструменти, обучени да различават дали едно изображение е направено от човек или създадено от генеративна невронна мрежа. Налични са безплатни онлайн приложения – например Decopy AI Image Detector – където потребителят качва снимка, и системата анализира пикселите, текстурите и други особености, за да прецени дали изображението е генерирано от популярен ИИ модел (Midjourney, DALL-E, Stable Diffusion и пр.). Тези детектори са тренирани върху милиони реални и изкуствени картинки и могат да открият дори фини „артефакти“, неуловими за невъоръжено око.

    Практическо упражнение: Можете да дадете на учениците няколко снимки – някои истински, някои създадени с ИИ – и заедно да ги проверите с такъв инструмент. Това поражда дискусия по какво алгоритъмът е познал измамата. Някои съвременни модели дори визуализират своето решение – например чрез техника, наречена Grad-CAM, те маркират кои части от изображението са ги накарали да решат, че е фалшиво. Ако инструментът показва, че очите на човека в снимката изглеждат изкуствени (може би несъвършени отражения в зениците) – това е отправна точка да научим учениците какви детайли да гледат.
  • Разпознаване на deepfake видео: Проверката на видеоклипове е по-сложна от тази на изображения, но и тук ИИ е пробив. Алгоритмите за разпознаване на deepfake анализират рамка по рамка за неестествени движения на лицето, несъответствия при мигане, изкривявания при ръбовете на лицето и други признаци. За широката публика има достъпни инструменти като мобилни приложения и уеб платформи, които приемат къс видеоклип и дават оценка за автентичност. Например Deepware Scanner е свободен уеб базиран инструмент, с който можете да качите видео или да подадете линк за сканиране.
    Макар тези технологии да са още нови, насърчете учениците да бъдат детективи: ако видят видео с невероятно твърдение, да го разглеждат със скептично око – дали синхронът на устните изглежда малко офлайн? Има ли странни „засечки“ в аудиото? ИИ може да помогне като предварителен филтър, но човешкото внимание към детайла също трябва да се активира.

 

 

 

  • Следете за етикети и метаданни: От регулаторна гледна точка, светът върви към повече прозрачност при ИИ-съдържанието. Например Европейският съюз въведе изискване всички генерирани от ИИ изображения, видео и аудио, които имитират реалност, да бъдат ясно обозначени (маркирани) като изкуствени. Това означава, че занапред може да виждате предупредителни бележки „това съдържание е синтетично“. Обучете учениците да търсят такива индикатори. Също така, при работата с файлове, ИИ инструменти понякога оставят „подпис“ в метаданните (скрита информация за файла). Напредналите ученици могат да бъдат научени как да поглеждат метаданните на изображение (например чрез сайтове като FotoForensics) за следи, че е генерирано или обработено от специфичен софтуер.

Но най-важното от всичко е практиката. Учениците често се доверяват на визуална информация повече, отколкото на текст, затова трябва да им покажем, че „очите могат да лъжат“. Когато видят колко убедителни фалшиви снимки може да прави ИИ, но после сами успеят да ги разобличат с помощта на онлайн инструмент, те ще станат много по-внимателни зрители на цифровото съдържание.

 

Стъпка 4: Повишаване на дигиталната грамотност чрез интерактивни ИИ инструменти

За да стане борбата с дезинформацията ефективна, учениците трябва не само да следват инструкции, но и да разберат принципите – да изградят медийна грамотност и навици за критично мислене. Изкуственият интелект може да бъде внедрен в образователни дейности по забавен и занимателен начин, така че децата и младежите активно да се учат да разпознават неверните твърдения. Ето няколко идеи:

  • „Фалшиви новини“ като учебна игра: Учителят или родителят може умишлено да използва ИИ, за да създаде подвеждащо съдържание, което после заедно с учениците да анализират. Например с помощта на езиков модел (като ChatGPT) може да се генерира кратка новина, пълна с нереални „факти“ – напр. сензационна история на научна тема. Дайте тази статия на класа и задайте задача: „Открийте кои твърдения вероятно са неверни и измислени“. Учениците ще започнат да подлагат текста на съмнение, да търсят необичайни или прекалено драматични елементи. След това покажете как стъпка по стъпка да проверят подозрителните факти, използвайки Стъпка 2 (Fact Check Explorer, търсене на източници) и Стъпка 3 (търсене на изображения, ако има). Когато сами разбият фалшивата новина на парчета, те ще изпитат удовлетворение и ще запомнят наученото много повече, отколкото при пасивно слушане. Разбира се, подчертавайте етичната страна – тази симулация е за образование, а създаването и споделянето на фалшиви новини в реалния свят е безотговорно и вредно.
  • Използване на образователни ИИ платформи: Появяват се специализирани проекти, насочени към училищата, които интегрират ИИ за проверка на съдържание. Например един концептуален проект, наречен EduTruth, предвижда ИИ система, която да сканира учебни текстове или материали за фактологични грешки и да предупреждава учителя навреме. Макар подобни платформи още да са в етап на разработване, идеята е обещаваща – ИИ да стане помощник на учителя, като филтрира учебното съдържание за неточности или потенциално подвеждащи твърдения. Това разбира се не отменя ролята на преподавателя, но дава допълнителна сигурност, че информацията предадена на децата е коректна. В близко бъдеще може да видим и интеграции в популярни образователни приложения, където ИИ модул автоматично да проверява есетата или презентациите на учениците за използване на недостоверни източници (например ако ученик цитира случайна публикация от блог за научен факт, ИИ може да сигнализира да се внимава в случая).

 

 

  • Интерактивни уебсайтове и игри за разпознаване на дезинформация: Някои ресурси вече са достъпни и могат да се ползват веднага. Например сайтът WhichFaceIsReal.com показва две снимки на лица – едното е на истински човек, а другото е изцяло генерирано от ИИ – и пита потребителя да познае кое е истинското. След отговора сайтът разкрива правилния отговор и дава съвети как да различим фалшивото лице. Това е увлекателна игра, която бързо ангажира учениците (те често се изненадват колко трудни са някои разлики) и в същото време тренира окото им да улавя неестествени детайли. Разработчиците на сайта – двама професори от Вашингтонския университет – целят точно това: да образоват публиката за лекотата, с която могат да се създават фалшиви цифрови идентичности, и да подобрят умението ни да ги разпознаваме. Подобни инициативи превръщат ученето в игра, а учениците обичат подобни предизвикателства. Може да организирате състезание в класа: кой ще постигне най-висок резултат в разпознаването на фалшиви лица или новини? Накрая обсъдете заедно грешките – кои фалшиви образи са били най-заблуждаващи и защо.
  • Дискусии и казуси: Използвайте конкретни казуси от света, за да стимулирате критично мислене. UNESCO например съобщава, че по време на пандемията от COVID-19 е имало 50% ръст на образователна дезинформация в науката и здравето. Представете на учениците един такъв случай – напр. мит, че „пиенето на белина лекува вируса“ – и ги разделете на групи: едните да изследват как се е зародил този мит (често се тръгва от неразбрани научни изказвания или злонамерени шеги), а другите да покажат с помощта на ИИ инструменти как бързо са могли да проверят достоверността (напр. да намерят опровержение от СЗО). Така учениците не само ще видят как се опровергава, но и ще осмислят защо хората вярват на такива измислици – фундаментална част от медийната грамотност е да разбираш психологията зад дезинформацията.

Така че съчетавайте ИИ инструментите с интерактивни методи на обучение. Целта е учениците да преминат от пасивно приемане на информация към активно изследване и поставяне под съмнение. Когато ИИ се превърне в техен партньор в учебния процес – нещо, с което експериментират и от което се учат – те много по-лесно ще пренесат тези умения и в реалния живот.

 

Стъпка 5: Съчетавайте технологията с човешкото мислене (ИИ + човек = успех)

Последната, но може би най-важна стъпка, е да подчертаем, че изкуственият интелект не заменя човешкия фактор – той го допълва. Най-ефективната стратегия срещу дезинформацията съчетава бързината и обхвата на ИИ с критичната преценка и експертизата на хората. Ето как на практика да постигнем този баланс:

  • Човешка проверка на ИИ алармите: Когато един ИИ инструмент сигнализира, че дадено съдържание вероятно е фалшиво или манипулирано, не бива да приемаме това като финална присъда. Възпитайте навик у учениците (и у себе си) винаги да проверяват два пъти. Например, ако ИИ детектор за изображения каже, че снимката изглежда генерирана, потърсете вие допълнителни доказателства – например близък оглед на изображението или търсене на второ мнение с друг инструмент. ИИ може да греши или да проявява пристрастия: изследвания показват, че модели за откриване на дезинформация могат несъзнателно да бъдат по-подозрителни към източници от определени държави или към определени теми, ако обучаващите данни са били небалансирани. Затова човешкият филтър е необходим, за да се избегнат несправедливи заключения. В класната стая това означава учителят винаги да модерира – ако ИИ посочи нещо като лъжа, да проведе обсъждане защо може да е лъжа и дали всички са съгласни с оценката.
  • Обяснимост и прозрачност: Винаги когато е възможно, използвайте инструменти, които предоставят обяснения. За учебни цели е ценен всеки ИИ, който не действа като „черна кутия“, а показва логика – било чрез визуализация (както споменатия Grad-CAM за изображения), било чрез цитиране на източници при отговори на въпроси. Това прави процеса прозрачен и превръща всяка потенциална грешка на ИИ в учебен момент, а не в повод за заблуда. Ако ИИ заяви „Твърдение X е невярно“, настоявайте да видите на какво се основава – например линк към проучване или статистика. Така учим децата да изискат доказателства и от машините, не само от хората.
  • Етични норми и граници: Дискутирайте с учениците, че не всяко „филтриране“ на информация е добро. Понякога ИИ системи за модериране може да премахнат или скрият съдържание, което е спорно, но не непременно дезинформация. Балансът между премахване на вредни лъжи и запазване на свободата на изразяване е тънък. Добре е младите хора да разбират този контекст – че целта не е цензура, а достоверност. Ако някой ученик постави въпроса „Ами ако ИИ греши и цензурира нещо вярно?“, признайте че е възможно и точно затова са нужни регулации и човешки контрол. Споменете, че организации като Световната здравна организация и UNESCO разработват етични насоки за използване на ИИ – например СЗО препоръчва задължителен човешки надзор при ИИ, който предоставя здравна информация, точно за да се избегнат опасни грешки. Европейският съюз пък въвежда правила за прозрачност (етикетирането на deepfake, за което споменахме, и др.), с което иска да гарантира, че ИИ няма да подвежда потребителите. Тези примери показват на учениците, че обществото като цяло се бори срещу дезинформацията и търси правилния начин да използваме новите технологии отговорно.

 

  • Адаптиране към нови тактики: Дезинформаторите постоянно измислят нови начини да заобикалят филтрите – една своеобразна „надпревара във въоръжаването“ между създателите на фалшиви новини и тези, които ги ловят. Затова не бива да се успокояваме, че едно решение е „вълшебно“ и ще работи завинаги. Насърчавайте учениците да следят новините за технологии – например когато излезе нов вид deepfake (аудио deepfake на гласове, или т.нар. „cheapfake“ видеа, монтирани с по-прости средства), обсъдете в час как бихме могли да го разпознаем. Покажете им, че и ИИ инструментите се обновяват – вероятно сте забелязали как приложенията за социални мрежи постоянно подобряват модерацията си. Ключовото послание е: ученето е постоянно. Както ИИ се обучава непрекъснато, така и ние трябва да се учим постоянно. Задачата на училището не е да даде вечни отговори, а да създаде гъвкавост и любознателност да се справяме с нововъзникващите ситуации.
  • Вдъхване на доверие в науката и фактите: В крайна сметка, борбата с дезинформацията не е само „лов на грешки“, а и утвърждаване на истината. Използвайте ИИ, за да подсилите положителното – например ако по дадена нашумяла тема (ваксини, климат, здраве) има много митове, може да използвате ИИ, за да генерирате разбираеми обяснения на научните факти за учениците. Езиковите модели могат да превеждат сложен научен език на по-прост – разбира се, проверете достоверността и яснотата, но това може да е полезно, за да представите истинската информация по привлекателен начин. Комбинирайте това с личен подход: окуражете учениците сами да задават въпроси на ИИ (например: „Обясни ми как работи ваксината срещу морбили“), след което заедно оценете доколко отговорът е правилен. Така децата виждат, че технологиите не са враг на истината, а могат да бъдат инструмент, стига да ги ползваме умно.

 

Заключение

Използването на изкуствен интелект за борба с дезинформацията е обещаващ, но комплексен процес. От една страна, съвременните ИИ модели демонстрират впечатляващи способности – например, deep learning системите постигат много висока точност при откриване на фалшиви изображения и видеа в контролирана среда. От друга страна, „битката“ е динамична: колкото повече ИИ успява да хване лъжата, толкова повече разпространителите на лъжи ще се опитват да го излъжат. Затова най-ценният урок, който можем да предадем на учениците, е, че човешкият разум, подпомогнат от технологията, е нашето оръжие. И учители, и родители имат ключова роля – като наставници, които показват как да се използват тези нови инструменти безопасно и ефективно.

Следвайки стъпките в това ръководство – разбиране на проблема, проверка на факти с ИИ, анализ на изображения, интерактивно учене и критично мислене – ние изграждаме у младите хора устойчив „имунитет“ срещу информационните измами. Крайната цел не е просто да хванем всяка фалшива новина (която утре ще бъде заменена от друга), а да създадем поколение от дигитално грамотни, мислещи граждани, които ценят истината. Именно в съчетаването на скоростта на компютъра и мъдростта на човека се крие надеждата ни да запазим информационното пространство честно и достоверно. Нека използваме изкуствения интелект като сила за добро – в ръцете на образовани и отговорни млади хора той може да бъде щитът, който пази обществото ни от вълните на дезинформацията.

 

 

Основни източници

Desinformation climatique – PDF доклад
https://quotaclimat.org/app/uploads/2025/04/Desinformation-climatique_avril2025_UK_NEW_DEF-1.pdf

 

Climate‑FEVER: a dataset for verification of real‑world climate claims
https://research.google/pubs/climate-fever-a-dataset-for-verification-of-real-world-climate-claims/

 

IEEE документ (изследване свързано с AI дезинформацията)
https://ieeexplore.ieee.org/document/10197706

 

OSF / SocArXiv препринт
https://osf.io/preprints/socarxiv/uf3zn_v1

 

Deepfake detection using deep learning: a neural network–based approach to identifying AI‑generated media
https://ijsrem.com/download/deepfake-detection-using-deep-learning-a-neural-network-based-approach-to-identifying-ai-generated-media/

 

Classification of real vs AI‑generated images using deep learning
https://ijsrem.com/download/classification-of-real-vs-ai-generated-images-using-deep-learning/

 

JOSTER: https://joster.org/index.php/joster/article/view/26

 

Leveraging AI/NLP to combat health misinformation and promote trust in science (EAJCSIT)
https://eajournals.org/ejcsit/vol13-issue25-2025/leveraging-ai-nlp-to-combat-health-misinformation-and-promote-trust-in-science/

 

Sage Journal: статия за AI и дезинформация
https://journals.sagepub.com/doi/10.1177/27523543251325902

 

Google Fact Check Explorer / AI системи за проверка на факти — https://toolbox.google.com/factcheck/explorer/search/list:recent;hl=es 

 

С подкрепата на Science+

 

"Наука за ученици, учители и родители"

Изтегли безплатно:

Включи се в списъка ни с имейли – получаваш броеве, статии, видеа и всичко, което правим за популяризирането на науката в България.

Живейте по-добре с наука!

  • Развийте критично мислене и изградете защита срещу дезинформация.

  • Придобийте ключови умения за по-добър живот с нашите курсове във формат текст, видео и аудио.

  • Открийте новостите и иновациите в медицината.

  • Само 3 минути дневно са достатъчни, за да трансформирате живота си!

  • Всеки месец ви очаква нов брой с увлекателни статии по биология, космос, технологии, история, медицина и много други.

Изживейте науката навсякъде и по всяко време, като я четете на най-удобното за вас устройство.

 

Създадохме платформа, която предлага курсове и ръководства, насочени към решаването на житейски предизвикателства чрез научно обосновани методи. Тя не само подпомага личностното развитие, но и предоставя ценни знания за водене на по-здравословен, успешен и пълноценен живот. Благодарение на научния подход, потребителите ще имат възможност да подобрят своето благосъстояние и да постигнат по-високо качество на живот.

БГ Наука
Правила на поверителност

Използваме „бисквитки“, за да персонализираме съдържанието и рекламите, да предоставяме функции на социални медии и да анализираме трафика си. Също така споделяме информация за начина, по който използвате сайта ни, с партньорските си социални медии, рекламните си партньори и партньори за анализ.

Можете да коригирате всички настройки на „бисквитките“, като отворите разделите вляво.