Маніпуляції, які ми не помічаємо: Тімо Ленк і Мартін Лестра про викриття дезінформаційних наративів

липня 11, 2025 • Головне, Медіадослідження, Нещодавнє • by

Цей текст є частиною серії PROMPT.

Тімо Ленк і Мартін Лестра присвячують свою діяльність боротьбі з дезінформацією, хоча й підходять до цього з різних позицій. Ленк, постдокторант Дортмундського університету, працює над проєктом ADAC.io у межах програми Горизонт Європа. Його мета — посилення демократичної стійкості до маніпуляцій та іноземного інформаційного втручання (FIMI). Мартін Лестра представляє французьку компанію Opsci й координує PROMPT — пілотний проєкт, підтриманий Європейською Комісією, який зосереджується на виявленні та розшифровці дезінформаційних наративів і кампаній.

Ленк провів спеціальне дослідження маніпулятивної комунікації, пов’язаної з кліматичною політикою ЄС напередодні виборів до Європейського парламенту 2024 року. У своєму кейсі він аналізує стратегічні тактики, спрямовані на поляризацію публічних дебатів. Його висновки перегукуються з підходами проєкту PROMPT, основним фокусом якого є виявлення та протидія дезінформаційним наративам.

У цьому перехресному інтерв’ю Ленк і Лестра обговорюють, як поширюється дезінформація, які ризики вона створює для демократії, і як їхні проєкти допомагають виявляти й нейтралізувати маніпулятивні наративи.

Перше тематичне дослідження ADAC.io — «Стратегічні маніпуляції в контексті виборів до Європейського парламенту 2024 року» — демонструє, як така комунікативна поведінка впливала на перебіг виборчої кампанії. У дослідженні, зокрема, аналізується приклад російських пропагандистських медіа, які застосовують тактику «підкріплення наявних дезінформаційних і пропагандистських наративів». Це досягається шляхом цитування європейських націоналістичних та праворадикальних політиків і медіа, що критикують кліматичну політику ЄС (Lenk, 2024, с. 5). Такі стратегії «повторного впливу повідомлень» можуть підсилювати сприйняття їхньої достовірності серед аудиторії (там само, с. 6).  Які теми чи закономірності, на вашу думку, найчастіше зустрічаються у дезінформаційних кампаніях, спрямованих проти демократичних процесів — зокрема, у прикладі з європейськими виборами?

Тімо Ленк

Тімо Ленк: У дослідженні ми виявили три ключові закономірності, які використовуються в дезінформаційних кампаніях: (a) Існуючі страхи й тривоги — зокрема щодо економічного спаду, втрати робочих місць, зростання цін — активно експлуатуються та пов’язуються з нібито хибною політикою ЄС. Наприклад, деіндустріалізацію Євросоюзу подають як наслідок енергетичного переходу. (b) Дезінформаційні меседжі реагують на актуальні події з метою скористатися підвищеною увагою медіа — як-от у випадку протестів фермерів напередодні виборів. (c) Відбувається свідоме поєднання антиєвропейських пропагандистських наративів, критики політики й інституцій ЄС, із воєнною пропагандою, пов’язаною з повномасштабним вторгненням Росії в Україну. У всіх трьох випадках наративи орієнтовані на підсилення негативних емоцій — страху, ненависті та обурення.

Мартін Лестра: Наративи, які назвав Тімо Ленк, є центральними для проєкту PROMPT. Ми відстежуємо, що говорять про війну агресії в Україні, права ЛГБТКІ+ спільноти, а також про вибори до ЄС. Спостерігаємо численні «осередки дезінформації», які підтримуються зловмисними акторами — іноземними режимами та їхніми внутрішніми посередниками, особливо у періоди загострення виборчих кампаній. Розгляд спірних тем у національному контексті, наприклад, протестів фермерів, є набагато ефективнішою стратегією, ніж вигадування цілком нових, абсурдних тем. Такі контроверсійні теми мають більший шанс потрапити в заголовки та швидко поширюватися, зокрема у приватних повідомленнях. Ми також бачимо, що дезінформаційні суб’єкти часто змішують різні теми, говорять одночасно про війну в Україні, ЛГБТКІ+ та вибори до ЄС. Через це безпосередньо на виборчий процес ЄС припадає менше наративів, натомість домінують інші, наприклад, уявна відповідальність ЄС за війну в Україні, роль Євросоюзу у зубожінні фермерів чи неоколоніальні проєкти в Африці. Ще одна важлива особливість — брак «спільних тем» або «мегаісторій». Натомість існує багато варіацій одних і тих самих наративів.

Те, що говорять про обурення фермерів у Франції, дуже схоже на дискурс у Польщі чи Іспанії. Фактчекери підтверджують: ці наративи, як старі чоботи, регулярно повторюються на кожних наступних виборах.

Іншими словами, ринок дезінформації — це нестабільне середовище, але деякі ключові механізми працюють постійно, постійно надаючи нові форми вже відомим історіям.

Дезінформаційні наративи становлять серйозні ризики, особливо у контексті виборчих процесів, адже можуть вводити виборців в оману та підривати основи демократії. У тематичному дослідженні ADAC.io наголошується: «Результати проливають світло на складну екосистему дезінформації та пропаганди, яка розмиває межі між іноземним інформаційним втручанням (FIMI) та маніпуляціями внутрішньою інформацією» (Lenk, 2024, с. 2). Як такі маніпулятивні наративи, як «зелена тиранія», набирають популярності? Яку роль у їхньому поширенні відіграють цифрові платформи?

Тімо Ленк: Наше тематичне дослідження показало, що пропагандистські та ультраправі медіа і блоги використовують у своїх наративах схожі теми дезінформації, наприклад, занепад Європи чи утиски з боку ЄС держав-членів. Це підтверджується й попередніми дослідженнями. Ми виявили, що такі наративи застосовують певні фрейми й метафори, як-от «зелена тиранія», що, ймовірно, покликані викликати сильні негативні емоції, відчужувати громадян від інституцій ЄС і розпалювати громадську лють. Бази даних, як-от EUvsDisinfo від East Stratcom Європейської служби зовнішніх дій, а також численні дослідження з різних дисциплін демонструють, що ці базові наративи повторюються в багатьох випадках інформаційних маніпуляцій.

Щодо ролі цифрових платформ — вони підсилюють ці наративи двома основними способами. Структура платформ заохочує створення ехо-камер, де однодумці уникають коригувальних механізмів, таких як фактчекінг чи спростування. Алгоритми надають пріоритет контенту, який привертає найбільше уваги, а це, як правило, емоційний і скандальний матеріал, що утримує користувачів довше на платформі. Поки великі соцмережі не змінять свої бізнес-моделі, їхні платформи залишатимуться ідеальним середовищем для поширення провокаційного контенту.

Мартін Лестра

Мартін Лестра: Чим більше ми працюємо з дезінформацією, тим менше акцентуємо увагу на розмежуванні між FIMI (іноземне інформаційне втручання), DIMI (внутрішні маніпуляції) та іншими категоріями. Часто ця різниця виглядає радше як відмінність у мандатах різних організацій. Набагато важливіше розуміти, як наративи поширюються через соціальні мережі, різні мережеві спільноти та мовні простори. Наприклад, ми активно досліджували зв’язки між так званим «французьким» X (Twitter) та «російським» Telegram. Цифрові платформи дійсно допомагають наративам набирати обертів. Але справа не лише у вимірюванні лайків чи коментарів онлайн. Важливо те, що багато хто слідкує за тим, що відбувається у соцмережах. Як часто ви бачите новини, які починаються або містять посилання на сенсаційний пост у соцмережах? Цифрові платформи також популяризують наративи, бо вони впливають на традиційні медіа. Проте ми знаємо значно менше про те, як соцмережі формують наші погляди, ніж про вплив телебачення чи газет. Фактчекери добре це розуміють, адже їм доводиться дедалі частіше вирішувати, чи варто «перевіряти» або «ігнорувати» підозрілі наративи. Але наші цифрові упередження працюють постійно — і про це знають як платформи, так і зловмисники. Ми вважаємо, що потрібно більше зусиль докласти для глибшого розуміння взаємозв’язків між цифровими платформами, вебсайтами та традиційними медіа.

Проєкт PROMPT використовує великі мовні моделі (LLM) для більш ефективного моніторингу появи та поширення наративів. Одне з ключових завдань проєкту — зрозуміти, як дезінформація поширюється через соціальні платформи: чи відбувається це за допомогою універсальних риторичних моделей, чи з урахуванням локальних лінгвістичних і культурних особливостей. На цьому тлі постає важливе питання: як такі ініціативи, як ADAC.io і PROMPT, можуть допомогти у ранньому виявленні дезінформації та розробці ефективних заходів для пом’якшення її впливу?

Тімо Ленк: В проєкті ADAC.io одна з наших ключових цілей — удосконалення методів аналізу маніпуляцій інформацією та сприяння формуванню спільної термінології серед аналітиків (чи то дослідники, журналісти, чи експерти з OSINT). Наприклад, DISARM — відкритий фреймворк для аналізу маніпуляцій, заснований на інцидентному підході і підтримуваний Фондом DISARM — є одним із основних інструментів, над оптимізацією якого працюють наші партнери по проєкту.

Використання великих мовних моделей (LLM) для наративного аналізу — це захопливий напрямок! На мою думку, для подальшого розвитку критично важливі два аспекти. Потрібно більше обміну між командами та проєктами, які розробляють різні підходи до виявлення і протидії дезінформації й маніпулятивним наративам. В ідеалі ці інструменти мають інтегруватися у єдину систему. Необхідний загальносуспільний підхід для зміцнення довгострокової стійкості суспільства. Для цього спершу потрібно підвищити обізнаність серед ключових зацікавлених сторін — академічних установ (університетів, шкіл), медіаорганізацій і журналістів. Якщо ви журналіст або працюєте в некомерційній організації, запрошую зв’язатися зі мною для отримання додаткової інформації про наші семінари в рамках проєкту ADAC.io!

Мартін Лестра: Дозвольте додати кілька слів про роль великих мовних моделей (LLM). Ми дедалі більше усвідомлюємо їхній потенціал у боротьбі з дезінформацією. Технології стрімко розвиваються: сьогодні ми здатні не лише розпізнавати базові елементи тексту, а й виявляти тонкі взаємозв’язки між текстом, зображеннями та відео різними мовами, хоч це ще далеке від досконалості. Ми краще розпізнаємо іронію, гумор, культурні відсилки (наприклад, закодовану мову), аналізуємо стиль публікацій у соцмережах та визначаємо емоції, які вони викликають. Це надзвичайно захопливо! Проте, хоча технологічний прогрес і є важливим, він не може замінити людський фактор. Щоб розробити ефективні заходи протидії дезінформації, нам потрібні люди, які вміють використовувати ці інструменти, розуміють їх і здатні впроваджувати в масштабах. Інакше кажучи, наша робота з LLM — це лише один з будівельних блоків для розширення можливостей дослідників цифрового простору у виявленні шкідливої поведінки. Насамкінець, нам потрібно навчити значно більше людей критично мислити щодо інформації, з якою вони стикаються в Інтернеті, так само, як це роблять офлайн. Це лише одна складова проєкту PROMPT, але в сфері медіаграмотності залишається ще багато роботи, далеко за межами компетенції лише великих мовних моделей (LLM). Ми сподіваємося зробити вагомий внесок у цю важливу справу.

Існує багато академічних зусиль, спрямованих на розробку інноваційних методів аналізу наративів. Проєкт PROMPT покликаний заповнити цю прогалину, а також включає додаткові заходи, щоб зробити результати досліджень максимально корисними для тих, хто щоденно протидіє дезінформації. Дивлячись у майбутнє, постає важливе питання: яку роль відіграє міждисциплінарна співпраця у боротьбі з дезінформацією? Як медіа, наука та політика можуть ефективніше взаємодіяти задля досягнення спільної мети?

Мартін Лестра: Термін «все суспільство», який згадував Тімо, для багатьох став просто модним кліше, але це аж ніяк не зменшує його значущість! У проєкті PROMPT ми прагнемо реалізувати цей підхід, об’єднуючи фактчекерів, активістів, науковців та представників індустрії. Одним із викликів є подолання поляризації, яку штучний інтелект іноді посилює серед тих, хто міг би ним найкраще користуватися.

Ми помічаємо, що багато фактчекерів (і не безпідставно) ставляться скептично або навіть негативно до застосування ШІ у своїй роботі.

І це не кажучи вже про широку громадськість! Тож окрім інформаційно-просвітницьких зусиль, нам потрібно також працювати безпосередньо з тими, хто є частиною нашого проєкту.

Ми працюємо на стику культури і технологій, що вимагає різних точок зору. Моя команда, наприклад, має понад 20 років досвіду в емпіричних дослідженнях платформ, ідентифікації спільнот, ключових лідерів думок тощо. Наші партнери в консорціумі додають інші перспективи. Цінність такого підходу — не лише концептуальна, а й дуже практична: яку корисну функцію на базі ШІ ми могли б розробити для PROMPT? З якими задачами вона має допомагати, а що слід уникати? Яким має бути її вигляд? І наскільки вона залишатиметься корисною через 6 місяців або рік? Оглядаючись назад, можна сказати, що цей підхід «все суспільство» вимагає узгодженої мови між різними дисциплінами та професіями для точного документування подій. Адже слово «наратив» може означати зовсім різні речі для різних людей. Зрештою, щоб бути більш ефективними, нам потрібно спільне розуміння того, який вплив чи шкоду завдає дезінформація в онлайні. Часто цей вплив передбачається, але не доводиться. Міждисциплінарна співпраця — ключова для розробки, тестування та впровадження спільних показників у нашій галузі.

Тімо Ленк: Так, я повністю погоджуюся: загальносуспільний підхід є надзвичайно важливим. Нам потрібен колективний інтелект усіх згаданих секторів: академічних кіл, медіа та некомерційних організацій. Як і Мартін, я особисто відчув це під час роботи в проєкті ADAC.io. Одним із моїх перших завдань була участь у тренінгу для аналітиків у Литві. Нас запросила неурядова організація Debunk.org,  один з партнерів нашого проєкту. Учасниками були переважно польські та німецькі дослідники соціальних і гуманітарних наук, які разом із аналітиками з некомерційного сектору обговорювали дезінформацію та маніпулятивні наративи. Ці аналітики займаються виявленням випадків маніпуляцій інформацією та повідомляють про них владі. Хоча ми мали дуже різні погляди, обмін був надзвичайно плідним. І я й досі відчуваю цю синергію між академічним середовищем та експертами з різних галузей у різних колабораціях проєкту. На мою думку, сприяння обміну знаннями та співпраці між різними дисциплінами і секторами є ключовим фактором для підвищення стійкості громадянського суспільства до маніпуляцій інформацією.


Цей текст було вперше опубліковано на німецькому сайті EJO 9 липня 2025 року. Українською переклала Олександра Ярошенко.

Погляди, висловлені на цьому сайті належать авторам і не обов’язково відображають точки зору, політики та позиції EJO. 

Стежте за нами у Facebook та LinkedIn.

Tags: , , ,

Send this to a friend