Журналістика завжди стояла на варті суспільного інтересу, контролюючи владу. Це не лише професійний обов’язок, а й фундамент її демократичної місії. Особливо це стосується розслідувальної журналістики — сфери, що завжди була на передовій боротьби за прозорість та справедливість. Але сьогодні влада вже не обмежується урядами. Гіганти на кшталт Meta, Google чи Apple не просто керують цифровим простором — вони формують його інфраструктуру. Саме тому журналістика дедалі більше зосереджується на критичному аналізі цифрових платформ. Великі технологічні компанії стали новими центрами впливу, їх можна порівняти з державами — з власними правилами, системами управління та соціальними обов’язками. Як колись журналісти стежили за діями урядів, сьогодні вони мають інструменти й досвід, щоб контролювати владу цифрових платформ. І це, можливо, найважливіший виклик сучасної журналістики.
Традиційні методи журналістики часто не здатні впоратися з техногенними складнощами та непрозорістю, які приховують великі технологічні компанії. Ці компанії — це справжні «чорні ящики» сучасного світу: від державних та корпоративних секретів до глибинних алгоритмів, що потребують особливих технічних знань для розуміння. Алгоритми, на відміну від людей, не можна запросити на інтерв’ю. І тут виникає серйозна проблема — журналісти мають справу з величезною асиметрією влади та інформації. Великі платформи, з їхніми нескінченними фінансовими, технологічними та юридичними ресурсами, майже повністю контролюють інформаційний простір, що робить неможливим проникнення через завісу корпоративних таємниць.
Саме тому критичний аналіз роботи алгоритмів великих технологічних компаній лягає на плечі спеціалізованих розслідувальних організацій, таких як ProPublica чи The Markup, а також Lighthouse Reports. Окрім того, неприбуткові організації, такі як AlgorithmWatch, Systemic Justice та The Center for Countering Digital Hate, не зупиняються у своєму прагненні вивчити вплив цих потужних технологій на суспільство. Дослідники ж все частіше обговорюють, як ШІ може змінити розслідувальну журналістику, допомагаючи виявляти приховані історії та працювати з величезними масивами даних. Такий підхід уже отримав назву «цифрових вартових» і розглядається як інструмент контролю за владою.
Навчальні дані чат-ботів та алгоритм рекомендацій TikTok
Дослідження Йоріса Веербека з кафедри медіа та культурології Утрехтського університету (Нідерланди) передбачає безпосереднє застосування ШІ в журналістських розслідуваннях. У рамках PhD-проєкту було проаналізовано два кейси у співпраці з нідерландським щотижневиком De Groene Amsterdammer. Це невелика редакція з 15 журналістами, яка у 2020 році заснувала ініціативу «Data and Debate» для аналізу онлайн-дебатів у партнерстві з нідерландськими університетами.
Методологія дослідження передбачала тісну співпрацю між журналістами та науковцями. Журналісти відповідали за пошук джерел, проведення інтерв’ю та аналіз документів, тоді як дослідники розробляли методи аналізу даних та працювали з алгоритмами. Робочий процес включав щотижневі офіційні зустрічі, спільне маркування даних та неформальні обговорення. Підсумкові матеріали писали журналісти, але з урахуванням внеску дослідників. Така взаємодія дозволила не лише апробувати ШІ-інструменти в журналістиці, а й оцінити їхню ефективність у реальних редакційних умовах.
Одним із ключових питань дослідження було: які джерела дозволяють великим мовним моделям досягати високого рівня володіння нідерландською мовою? Дослідники вивчили дані з Google’s Colossal Clean Crawl Corpus (C4), зокрема його багатомовний варіант mC4, що містить понад 95 мільйонів нідерландських вебсайтів. Аналізуючи відфільтровані дані, які використовуються для тренування GPT-3, команда виявила, що контент, включений у модель, значною мірою залежав від алгоритмів відбору, які віддавали перевагу англомовним текстам. Виявлено також низку проблемних типів контенту, зокрема персональні дані, захищені авторським правом матеріали та дезінформаційні сайти, що уособлює ризики недостатньо контрольованого збору навчальних даних для ШІ.
Це дослідження також вивчало, як TikTok виявляє інтерес користувачів до контенту, пов’язаного з розладами харчової поведінки, і як швидко він починає рекомендувати схожі відео. Використовуючи автоматизовані акаунти на фізичних смартфонах, дослідники відстежували, скільки часу потрібно алгоритму, щоб наповнити стрічку відео на цю чутливу тему. Виявилося, що TikTok може адаптувати рекомендації всього за кілька хвилин, що свідчить про його здатність швидко виявляти приховані інтереси користувачів. Щоб аналізувати відеоконтент, команда застосувала модель CLIP, яка дозволила оцінити зв’язок між зображеннями та текстом у відео.
Швидкість, персоналізація, відтворюваність
На основі двох журналістських кейсів можна виділити три основні категорії впливу ШІ на доступність операцій із великими цифровими платформами: швидкість і масштаб, персоналізація та відтворюваність. Швидкість і масштаб дозволяють журналістам ефективно працювати з величезними масивами даних, автоматично класифікуючи мільйони записів у стислі терміни. Це особливо важливо в розслідуваннях, пов’язаних із навчальними наборами даних для чат-ботів, де ШІ допомагає впорядкувати вміст, роблячи його доступним для подальшого аналізу. Хоча така автоматизація не замінює людську працю, вона дає змогу виконувати завдання, які раніше були б просто нездійсненними через їхній масштаб.
Персоналізація, своєю чергою, дозволяє ШІ імітувати поведінку користувачів на платформі, що допомагає краще зрозуміти, як працюють алгоритми рекомендацій. Це особливо помітно у дослідженні TikTok, де ШІ-боти відстежували взаємодію з контентом, що стосується розладів харчової поведінки. На відміну від традиційного збору даних через хештеги, використання ШІ дало змогу виявити відео без маркування, але з відповідним візуальним змістом. Такий підхід не лише робить алгоритмічні рішення більш зрозумілими для широкої аудиторії, а й дозволяє краще висвітлювати технічні процеси у журналістських розслідуваннях.
Відтворюваність є важливим аспектом журналістської методології, коли мова йде про дослідження цифрових платформ. Автоматизація процесу збору та аналізу даних дає змогу журналістам повторювати експерименти, використовуючи однакові параметри, що підвищує надійність висновків. Наприклад, аналіз роботи алгоритмів TikTok можна повторити в різний час, щоб відстежити зміни у системі рекомендацій. Це особливо важливо, оскільки платформи можуть заперечувати окремі випадки або пояснювати їх випадковими збігами.
Хоча великі технологічні компанії дедалі більше закривають свої алгоритми та посилюють контроль над інформаційним простором, журналісти можуть використовувати ШІ для аналізу величезних масивів даних, виявлення алгоритмічних упереджень і розслідування впливу цифрових технологій на суспільство. Відтак, у новому технологічному ландшафті журналісти-розслідувачі не лише мають своє місце, а й відіграють критично важливу роль у забезпеченні прозорості цифрових гігантів.
Погляди, висловлені на цьому сайті належать авторам і не обов’язково відображають точки зору, політики та позиції EJO.
Джерело зображення: Pexels.
Tags: ChatGPT, TikTok, алгоритми, вартові, демократія, розслідувальна журналістика, розслідування, ШІ, штучний інтелект