Відповідальне використання штучного інтелекту в журналістиці

березня 1, 2026 • Головне, Нещодавнє, Цифрові медіа • by

У світі, що все більше взаємопов’язаний, дезінформація швидше поширюється. Джерело зображення: Pexels

Дезінформація дедалі частіше поширюється через національні кордони, а її розповсюдження значно прискорюється завдяки новим цифровим технологіям, зокрема штучному інтелекту. Проєкт Європейського Союзу PROMPT досліджує, як журналістика, фактчекінг і технології штучного інтелекту можуть взаємодіяти відповідально, а також пропонує практичні рекомендації щодо найкращих практик їхнього застосування у медіасфері.

Штучний інтелект, дезінформація та журналістика

Дезінформація стала одним із ключових викликів сучасної цифрової публічної сфери. Чутки, маніпулятивні наративи та цілеспрямовані кампанії впливу не обмежуються національними кордонами: вони швидко поширюються між платформами, мовами та різними медіаекосистемами. У цьому процесі штучний інтелект відіграє подвійно амбівалентну роль: з одного боку, він може сприяти масштабуванню та швидкому розповсюдженню дезінформації, а з іншого — відкриває нові можливості для її виявлення, аналізу та спростування.

Саме на перетині цих викликів і можливостей працює фінансований Європейським Союзом проєкт PROMPT (Predictive Research on Misinformation and Propagation Trajectories). Упродовж 2024–2026 років проєкт об’єднав журналістів, дослідників та організації з перевірки фактів з різних країн Європи. Його метою є аналіз ключових дезінформаційних наративів, виявлення транскордонних моделей їх поширення та розроблення практичних рекомендацій для відповідального використання штучного інтелекту в журналістиці.

Дезінформація не знає кордонів

Досвід показує, що загрози, пов’язані з дезінформацією, мають транснаціональний характер, є динамічними та часто важко передбачуваними. Інтерв’ю, проведені в межах проєкту PROMPT з фактчекерами з шести європейських країн (Італії, Франції, Литви, Естонії, Румунії та Латвії) чітко демонструють, наскільки важливою для протидії дезінформації стала рання та інституціоналізована співпраця в редакціях. Наприклад, в Естонії та Литві команди з перевірки фактів уже не виконують лише роль постфактум коригування, а дедалі більше інтегруються у щоденні редакційні процеси. Журналісти повідомляють про підозрілий контент під час власних досліджень, звертаються по методологічну підтримку для перевірки джерел, зображень або дописів у соціальних мережах, а також консультуються з фактчекерами ще до публікації матеріалів, особливо коли йдеться про політично чутливі теми. Така практика сприяє формуванню культури перевірки в редакціях і зменшує ризик ненавмисного поширення оманливого або маніпулятивного контенту.

Водночас тематичні дослідження виборчих кампаній у Румунії та Молдові демонструють високий рівень координації та транскордонний характер дезінформаційних кампаній. Ідентичні або дещо модифіковані наративи поширюються паралельно через соціальні мережі, месенджери та спільні онлайн-платформи. Такий контент часто адаптується мовно, емоційно моделюється та стратегічно інтегрується в різні публічні дискурси з метою впливу на різні локальні аудиторії.

Особливо показовим є явище так званого «відмивання наративів»: твердження, які спершу поширюються на маргінальних або маловідомих платформах, згодом з’являються в контекстах, що виглядають більш авторитетними або надійними.

Хоча такі кампанії легко долають національні кордони, мовні бар’єри та платформні екосистеми, журналістські контрстратегії часто залишаються прив’язаними до національних медіасистем і обмежених ресурсів. Ця невідповідність між транснаціональним характером маніпулятивних кампаній та фрагментованими журналістськими механізмами протидії підкреслює важливість європейської координації. Саме тому спільні інфраструктури, кооперація редакцій і розроблення спільних інструментів для дослідження та перевірки інформації стають дедалі необхіднішими для ефективної боротьби з дезінформацією.

Загальні принципи та їхні прогалини

Комплексний аналіз чинних рекомендацій і зобов’язань щодо використання штучного інтелекту, зокрема тих, що були розроблені Радою Європи, ЮНЕСКО, а також у межах професійних журналістських дискусій (див., наприклад, Columbia Journalism Review), демонструє доволі узгоджену картину на рівні базових принципів. Незалежно від того, чи йдеться про політичні рекомендації, академічні дослідження або практично орієнтовані позиційні документи, їхні ключові підходи значною мірою збігаються. У центрі цих принципів перебуває ідея людської відповідальності. Використання штучного інтелекту в журналістиці розглядається передусім як редакційне питання, а не лише як технічна чи економічна проблема. Остаточні редакційні рішення мають залишатися за журналістами, тоді як системи штучного інтелекту повинні виконувати допоміжну роль.

Тісно пов’язаною з цим є вимога прозорості. Медійні організації повинні чітко повідомляти, чи застосовувався штучний інтелект у процесах дослідження, створення або поширення матеріалів, а також пояснювати, у який саме спосіб він використовувався. Така відкритість дозволяє аудиторії краще розуміти контекст створення журналістського контенту та сприяє збереженню довіри до медіа.

Також у рекомендаціях часто наголошується на зобов’язанні щодо належної перевірки інформації. Контент, створений або підтримуваний за допомогою штучного інтелекту, повинен проходити ретельну перевірку, а його джерела мають залишатися прозорими та простежуваними. Водночас окремі рекомендації застерігають від ризиків алгоритмічної упередженості. Упередження, дискримінаційні установки або стереотипні уявлення можуть бути ненавмисно закладені в журналістський контент через навчальні дані та алгоритмічні моделі. Тому їх необхідно систематично виявляти, аналізувати та мінімізувати. Ці принципи доповнюються вимогою до постійного навчання та професійного розвитку.

Редакції мають системно розвивати технічне розуміння роботи штучного інтелекту, формувати етичну рефлексію щодо його застосування та розвивати практичні навички роботи з відповідними інструментами.

Водночас попри чіткість формулювання цих принципів, їхні обмеження стають очевидними у щоденній редакційній практиці. Багато наявних рекомендацій залишаються доволі абстрактними та майже не пояснюють, як саме журналісти мають діяти в умовах обмеженого часу, браку ресурсів та складної динаміки новинного виробництва. Дослідження та практичні звіти свідчать, що такі рекомендації нерідко залишаються непрочитаними або виявляються складними для інтеграції у повсякденні редакційні процеси.

Ці недоліки особливо помітні у практичному забезпеченні прозорості. Наразі бракує єдиних стандартів, які б визначали, яку саме інформацію про використання штучного інтелекту слід розкривати. Чи достатньо загального повідомлення про автоматизовану підтримку, чи необхідно також надавати відомості про використані моделі, джерела даних і рівень людського нагляду? За відсутності стандартизованих форматів громадськості складно порівнювати рівень прозорості між різними медіаорганізаціями.

Прогалини також очевидні у сфері контролю якості. У багатьох інших галузях уже існують усталені процедури технічного тестування та оцінювання цифрових систем. Натомість у журналістиці досі бракує чітких критеріїв оцінки інструментів штучного інтелекту, які б відображали фундаментальні журналістські цінності — такі як точність, неупередженість і довіра.

У результаті часто залишається незрозумілим, чи справді використання систем штучного інтелекту сприяє підвищенню якості журналістики, чи, навпаки, поступово підриває її стандарти.

Крім того, помітним є структурний дисбаланс: більшість рекомендацій неявно орієнтована на великі, добре забезпечені медіакомпанії. Менші редакції, місцеві медіа або видання, що працюють менш поширеними мовами, отримують у них значно менше практичної підтримки. У результаті виникає ризик посилення нерівності в медіасистемі, де лише окремі гравці мають достатні ресурси та експертизу для відповідального використання штучного інтелекту.

Залишається невирішеним питання залежності медіа від зовнішніх постачальників технологій штучного інтелекту. Питання суверенітету даних, принципів навчання моделей, контрактного контролю та редакційної незалежності часто згадуються в рекомендаціях, однак рідко супроводжуються конкретними механізмами або планами дій.

Загалом це виявляє ключову проблему: між нормативним консенсусом щодо відповідального використання штучного інтелекту та реальною редакційною практикою існує значний розрив. Саме на подолання цієї суперечності спрямований фінансований Європейським Союзом проєкт PROMPT. Його мета полягає не лише в узагальненні наявних принципів, а й у перетворенні їх на практичні критерії редакційних рішень на основі емпіричних досліджень, інтерв’ю та тематичних кейс-стаді.

Практичний інструмент: контрольний список редакційних рішень щодо використання ШІ

Окрім узагальнення найкращих практик, проєкт PROMPT розробив спеціальний контрольний список для редакцій. Його мета — допомогти медіа забезпечити те, щоб кожне використання штучного інтелекту відповідало базовим журналістським цінностям: людському нагляду, перевірці фактів, справедливості та прозорості. Водночас контрольний список враховує вимоги європейського регулювання, зокрема Закон ЄС про штучний інтелект.

Контрольний список можна використовувати під час редакційних нарад, навчальних тренінгів або для прийняття індивідуальних редакційних рішень. Короткий огляд основних етапів:

1. Уточнення мети. Яку саме мету має використання ШІ? Якщо очікувана користь незрозуміла або суспільна цінність є низькою, доцільно переглянути доцільність застосування технології.

2. Людський нагляд. Хто перевіряє результати роботи ШІ? Остаточну відповідальність за зміст матеріалу має нести кваліфікований журналіст.

3. Перевірка інформації. Чи можна незалежно перевірити джерела та факти, використані у матеріалі? Якщо перевірка неможлива, від публікації слід утриматися.

4. Перевірка упередженості та справедливості. Чи існує ризик викривлень, стереотипізації або дискримінаційних формулювань? Якщо ризик високий, варто застосувати додаткові запобіжники — наприклад, повторну перевірку, використання кількох джерел або альтернативних методів аналізу. Інструменти PROMPT можуть підтримувати цей процес, зокрема через аналіз і кластеризацію наративів або оцінку мовної чутливості.

5. Прозорість і розкриття інформації. Чи повідомляється аудиторії про використання штучного інтелекту? Доцільно зазначати роль ШІ у підготовці матеріалу, назву моделі (за можливості) та рівень людського контролю.

6. Дотримання правових та етичних норм. Чи відповідає результат чинному законодавству (зокрема нормам авторського права та захисту даних), а також редакційним етичним кодексам? У разі потенційних порушень матеріал потребує виправлення або призупинення публікації.

7. Якість і точність. Чи відповідає підготовлений контент базовим журналістським стандартам точності, ясності та справедливості? У разі виявлення помилок їх необхідно виправити до публікації.

8. Подальший моніторинг. Хто відповідає за подальший контроль опублікованого матеріалу та реакції аудиторії? Важливо призначити відповідальну особу та фіксувати виправлення. Додаткову підтримку можуть надавати аналітичні інструменти, наприклад, WikiSensiBarometer, що допомагають відстежувати зміни на спільних платформах, таких як Wikipedia, і сприяють підвищенню прозорості.

Цей контрольний список демонструє важливий принцип: штучний інтелект може суттєво підтримувати журналістську роботу, однак він не повинен замінювати людське професійне судження. Інструмент PROMPT допомагає інтегрувати етичні принципи безпосередньо у повсякденну редакційну практику та водночас показує, як транснаціональна співпраця може зміцнювати журналістику, долаючи національні й мовні бар’єри.

Медіаграмотність як ключ

Освіта і професійне навчання мають важливе значення в боротьбі з дезінформацією. У межах проєкту PROMPT було розроблено відкритий онлайн-курс (MOOC) «Narratives, News and Noise: AI, Journalism and Information Integrity», інтегрований у платформу COPE (EU project), що фінансується Європейським Союзом. Курс є вільнодоступним навчальним ресурсом, спрямованим на підвищення обізнаності журналістів і студентів щодо динаміки дезінформації в умовах поширення технологій штучного інтелекту. Спираючись на реальні тематичні кейси, практичні вправи та етичні дискусії, курс допомагає зрозуміти, як формуються та поширюються дезінформаційні наративи, а також якими способами журналісти можуть їх аналізувати й відповідально контекстуалізувати у своїй роботі. Такий підхід поєднує теоретичні знання з практичними навичками, необхідними для роботи в сучасному цифровому медіасередовищі.


Цей текст було вперше опубліковано 21 січня 2025 року на німецькому сайті EJO. Українською переклала Олександра Ярошенко.

Погляди, висловлені на цьому сайті, належать авторам і не обов’язково відображають точки зору, політики та позиції EJO. 

Стежте за нами у Facebook та LinkedIn.

Tags: , , , , , , , ,

Send this to a friend