Публічний мовник і штучний інтелект: досвід Suspilne.media

серпня 28, 2025 • Головне, Менеджмент ньюзрумів, Нещодавнє • by

«Наша головна мета використання ШІ — вивільнити час журналістів для їхньої справжньої роботи: писати репортажі, робити інтерв’ю, бути на місцях подій» — пояснює редакторка та продуктова менеджерка Suspilne.media Анастасія Коріновська. Ще кілька років тому тема штучного інтелекту у редакціях виглядала радше футуристично. Але восени 2023-го, після вибухової популярності ChatGPT, у Suspilne зрозуміли: потрібна чітка позиція та правила. Наприкінці лютого 2024 року Suspilne ухвалило власні принципи використання штучного інтелекту й опублікувало їх на своєму сайті.

ШІ та міжнародний досвід

Suspilne не працює у вакуумі. У світі дедалі більше редакцій формують власні політики щодо ШІ. Свої підходи вже оприлюднили BBC, Guardian, фінська Yle, Європейська мовна спілка. В Україні ж у січні 2024 року Міністерство цифрової трансформації презентувало рекомендації з відповідального використання ШІ у медіа. А в березні того ж року Європарламент ухвалив Закон про штучний інтелект, який забороняє деякі найбільш небезпечні застосування технології, зокрема масове розпізнавання облич у публічних місцях.

Однак для медіа загрози від штучного інтелекту не менш відчутні, ніж можливості. Передусім ідеться про поглиблення недовіри до журналістики, адже ШІ може генерувати фейки з небаченою швидкістю, особливо в періоди виборів чи воєнних загострень. Не менш небезпечними є кібератаки та витоки даних, які ставлять під ризик і редакції, і аудиторію. Ситуацію ускладнює відсутність законодавчої регуляції щодо використання контенту медіа для навчання моделей, а також непередбачуваний вплив нових технологій на освіту, ринок праці й навіть фінансові системи. Усе це безпосередньо відбивається і на майбутньому журналістики.

Дослідження BBC показало, наскільки ненадійними можуть бути відповіді штучного інтелекту на новинні запити. За результатами перевірки, понад половина (51%) відповідей ChatGPT, Copilot, Perplexity та Google Gemini містили суттєві неточності, а майже п’ята частина цитат з матеріалів BBC була спотворена: з’являлися неправильні цифри, дати чи твердження. У 13% випадків цитати зі статей узагалі були змінені або вигадані. Хибні приклади промовисті: ChatGPT і Copilot «призначали» Ріші Сунака та Ніколу Стерджен на посади, з яких вони вже пішли у відставку, а Perplexity приписав BBC висловлювання про «стриманість» Ірану та «агресію» Ізраїлю, яких у матеріалах мовника насправді не було.

Тож перекладати на ШІ відповідальність за новинний контент небезпечно. Втім, редакції шукають власні шляхи використання новим технологій. Наприклад, Suspilne експериментувало зі створенням мультфільму за допомогою ШІ: у сфері розважального контенту компанія дозволяє собі більше свободи, ніж у новинному.

Скрін з експерименту зі створення мультфільму з допомогою ШІ. Джерело зображення: Suspilne.media.

Ще один показовий приклад — проєкт «Суспільне Крим», де за допомогою Midjourney було відтворено сцени депортації кримських татар на основі архівних документів та свідчень очевидців. «Ми навмисно стилізували ці зображення під малюнки, щоб уникнути ілюзії реального фото і дати глядачу зрозуміти: це реконструкція», — пояснює Анастасія. Ці матеріали маркувались так: «У відео використані кадри та зображення, згенеровані з допомогою штучного інтелекту. Зображення зі знаком * згенеровані з допомогою Midjourney, на основі запитів, що сформовані з підтверджених фактів та описів подій очевидцями». Але навіть у таких проєктах важливо зважати на межі. Не всі теми можна і доречно ілюструвати за допомогою штучного інтелекту: наприклад, ніхто не створюватиме образ загиблої дитини — це неетично. Крім того, ШІ часто відтворює суспільні упередження, тому будь-яке згенероване зображення обов’язково має проходити перевірку редактора.

Принципи прозорості

«Якщо ми щось створюємо з допомогою ШІ — ми про це повідомляємо. За будь-яким елементом контенту все одно стоїть редактор» — пояснює Коріновська. Принципи Suspilne базуються на кількох засадах: прозорість і відповідальність, захист даних користувачів, пріоритет команди та інтелектуальної власності, дотримання міжнародних стандартів. Іншими словами: ШІ — це інструмент, але не автор. У редакції свідомо відмовилися від генерації відео за винятком випадків, коли необхідно продемонструвати відео, згенероване ШІ. «Наша цінність — це реальність. Приїхати на місце події, зняти й показати. Ми не будемо замінювати частинку реальності згенерованим відео» — наголошує Коріновська. Озвучування матеріалів з допомогою інструментів ШІ використовують у разі, якщо це не спотворює сенс історії. Наприклад, ШІ може озвучити термінові новини для Youtube-каналу. Ці новини маркуються так: «У відео використано синтетичний голос». Не генерують у редакції й зображення для ілюстрації новин. За рішенням редактора можуть бути виключення, зокрема, аби продемонструвати зображення, згенеровані ШІ. Щодо текстів — ШІ лише створює драфт тексту або його переклад, а над остаточною версією працює редактор, і саме він несе відповідальність за кінцевий результат.

Проте ШІ допомагає у «невидимій» частині роботи: субтитрування, розшифровка, заповнення сервісних даних в адмінці (теги, SEO), внутрішній вікі-бот, обробка великих масивів даних, виявлення дезінформації. Також інструменти ШІ застосовують для спецпроєктів, але з обов’язковим маркуванням. ШІ здатен підвищити ефективність команди: зняти рутину з журналістів і дати їм час для розслідувань, живого спілкування з героями, аналітики. Водночас ризики очевидні: «Ми бачили, як ШІ-асистенти перекручують цитати або приписують медіа те, чого воно не писало. Це репутаційний ризик для всіх редакцій», — говорить Коріновська. Саме тому Suspilne активно включене у міжнародні дискусії: від співпраці з Європейською мовною спілкою до діалогу з великими технологічними компаніями.

Зараз Suspilne оцінює, наскільки ШІ справляється з новинними запитами (спойлер: не дуже). Також редакція аналізує вплив АІ Overview на трафік, і розробляє внутрішній «тулбокс» — єдиний простір для редакції, аудіоновин, автоматизації SEO, перевірки відео, фото та текстів, згенерованих ШІ. Важливою частиною роботи залишається комунікація з бігтех-компаніями для забезпечення представленості українських медіа в ШІ-асистентах.

Серед корисних інструментів ШІ для журналістів Анастасія радить кілька перевірених платформ. Для розшифровки та роботи з аудіо підійдуть Google Pinpoint, ElevenLabs (шифрування та поділ по спікерах, озвучка), TurboScribe, Descript (редагування аудіо) та розширення GLASP для YouTube, а також Captions.ai і український додаток AI Captions for Video Verba для генерації субтитрів. Для аналізу та узагальнення інформації корисні NotebookLM (самері й аудіоперекази) і ChatPDF для роботи з PDF-файлами. Створення зображень можна прискорити за допомогою MidJourney, а переклад із підтримкою ШІ забезпечує DeepL. Для перевірки контенту на використання ШІ та фактчекінгу існують GPTZero і Factiverse.ai.

Усі ці інструменти Анастасія презентувала під час заходу «Штучний інтелект в роботі медіа: OSINT-інструменти, перевірка фактів, політики і захист від онлайн-атак», який відбувся 14 серпня 2025 року.


Погляди, висловлені на цьому сайті належать авторам і не обов’язково відображають точки зору, політики та позиції EJO. 

Джерело зображення: Suspilne.

Стежте за нами у Facebook та LinkedIn.

Tags: , , , , , , , , , ,

Send this to a friend