Роль фактчекінгу в контексті розвитку штучного інтелекту

травня 7, 2024 • Етика та якість, Нещодавнє • by

Зростання доступності інтернету та перетворення користувачів на творців контенту призвели до значних технологічних змін у сфері медіа за останні десять років. Ця зміна збільшила обсяг контенту, що робить його складним для оцінки та перевірки в такому великому масштабі. Цей розвиток змінив способи створення та розповсюдження інформації, а також те, як користувачі мережі можуть розпізнати правдивий контент.

Медійники зіткнулися з низкою труднощів, включаючи те, як ефективно досліджувати та перевіряти контент, створювати стійку довіру та виступати авторитетом для користувачів, які не мають можливості чи бажання самостійно перевіряти контент. Водночас авторитет самого джерела інформації стає все більш важливим, а довіра до інструментів фактчекінгу знижується.

Впровадження нових інструментів штучного інтелекту також починається в нових інформаційних середовищах. Вони використовуються для збору даних, гіпертаргетингу, ботингу, створення контенту для соціальних мереж тощо. Вони потенційно можуть зашкодити функціонуванню та довірі до традиційних медіа.
З іншого боку, інструменти штучного інтелекту можна правильно використовувати для перевірки інформації, створення повторюваного контенту, коректури, оперативної діяльності тощо.

Фактчекінг та штучний інтелект

Зазвичай фейкчекінг означає набір інструментів, які призначені для виявлення та виправлення неправдивої інформації та дезінформації в публічному просторі. Інтернет і соціальні мережі стали живильним середовищем для такого роду нелегального контенту. Наприклад, Семюел Вуллі та Філіп  Говард (Samuel Woolley, Philip Howard) попереджають, що саме тут оманливий контент посилюється інструментами штучного інтелекту, які створили комп’ютеризовану пропаганду. Основним засобом захисту від неї є її ж виявлення.

Саме на виявлення спрямована увага сучасних інструментів фактчекінгу. Вони можуть бути реалізовані по-різному. Інструмент зі штучним інтелектом може автоматично відстежувати ботів і позначати або (та) видаляти їх. Він також може шукати контент, що вводить в оману, і сповіщати про це модератора або розробника, який має право на редагування. Крім того, він відстежує підозрілу активність і попереджає нас про загрози на наших серверах. Нарешті, інструменти штучного інтелекту можуть також відстежувати та фільтрувати новинний контент і допомагати медіа класифікувати та перевіряти інформацію, яку вони отримують.

Наприклад, лондонська компанія Krzana допомагає журналістам шукати «гарячі новини» відповідно до обраних налаштувань за допомогою штучного інтелекту. Таким чином, журналісти можуть знаходити новинну інформацію відповідно до обраних ними ключів і фільтрів. Цей інструмент також можна використовувати для пошуку дезінформації — журналісти знаходять її та позначають, щоб повідомлення швидко вилучалося з обігу серед інших і не було підхоплене іншими медіа. Таким чином, цей інструмент допомагає журналістам шукати та перевіряти інформацію в режимі реального часу та ділитися своїми знаннями.

Зниження грамотності та зростання апатії споживачів

Одним із головних обмежень інструментів фактчекінгу та загроз для медіа є все більша апатія споживачів і зниження рівня грамотності. За індексом медіаграмотності Чехія має середні показники, демонструючи вищий рівень грамотності порівняно зі Східною Європою, але знову ж таки відстаючи від Західної Європи. Водночас лише 56% чехів вважають, що можуть розпізнати дезінформацію, і ця тенденція знижується.

У межах дослідження були проведені фокус-групи, які вказують на цікаві тенденції. Один із результатів фокус-групи полягає в тому, що було досягнуто згоди на тому, що поточна модель перевірки фейків, яка використовує тегування, не є ідеальною. Замість цього, користувачі мають навчитися оцінювати інформацію самостійно. Водночас одним із головних обмежень фактчекінгу було названо апатію користувачів. Одним словом, користувач не сприймає необхідність перевірки й не вважає правдиву інформацію настільки важливою, щоб інвестувати час, зусилля та увагу в цю перевірку. Підвищення медіа- та інформаційної грамотності може бути одним зі шляхів вирішення цієї проблеми.

Гібридна модель навчання

Команда вчених Ан Нгуєн, Адітья Харосекар, Саумяа Крішнан, Сіддхеш Крішнан, Елізабет Тейт, Байрон Воллес, Метью Ліз (An Nguyen, Aditya Kharosekar, Saumyaa Krishnan, Siddhesh Krishnan, Elizabeth Tate, Byron C. Wallace, Matthew Lease), спробувала створити модель перевірки фактів за допомогою штучного інтелекту. Вони також розробили модель навчання для розпізнавання дезінформації, щоб навчити користувачів перевіряти інформацію. Їхній інструмент використовує фактчекінг лише як допоміжний інструмент, щоб допомогти користувачам оцінювати та приймати рішення щодо правдивості інформації. Основна мета системи полягає в тому, щоб надати користувачам базу, на яку вони можуть покладатися, додаючи свої власні знання.

Система шукає статті, які стосуються теми, перевіряє історичну правдивість кожного джерела та фіксує свою позицію, а потім оцінює обґрунтованість тверджень, які були опубліковані. Модель є інтерактивною та прозорою для користувачів, щоб допомогти їм довіряти своїм рішенням і оцінювати інформацію. Модель також демонструє рівень впевненості у своїх висновках (наприклад, 80% впевненості в тому, що стаття неправдива), загальну репутацію тих медіа, в яких було опубліковано твердження, а також інших медіа, які стверджують протилежне.

Хоча ця модель зафіксувала вагомі результати, які зацікавили користувачів і привернули їх увагу, вона також мала деякі недоліки. Це пов’язано з тим, що автоматизований інструмент перевірки фактів не є безпомилковим; в експерименті він навмисно припускав помилки для перевірки користувача. Деякі користувачі в кінці кінців втратили до нього довіру, що загрожує загальній довірі до цих інструментів.

Роль медіа

Учасники вищезгаданої фокyс-групи також погодилися, що в сучасному світі медіа виконують функцію авторитету, яка базується на довірі користувачів, і тому медіа переносять цю довіру на контент, яким вони діляться. Таким чином, медіа повинні активно протистояти інструментам штучного інтелекту, зосереджуючись на створенні довіри в довгостроковій перспективі, яку штучний інтелект може допомогти створити. Наприклад, він може допомогти їм уникнути друкарських помилок, забезпечуючи коригувальні інструменти AI та інструменти AI, що генерують рутинні новини; зниження операційних витрат за допомогою AI, фінансовий аудит за допомогою AI; і збільшення цінності реклами завдяки гіпертаргетингу.

Сaме заангажованість медіа є однією з актуальних проблем сьогодення. Водночас це скоріше загальний прихильний настрій всієї редакції, який потім відображається в окремих повідомленнях. Упередженість у медіа виявляється за допомогою інструменту, розробленого в Чеському Технічному Університеті, який навчився автоматично визначати, чи є обрані медіа упередженими в будь-який спосіб, на основі отриманих анотацій, які слугували навчальними даними.

Упередженість медіа може проявлятися у виборі конкретних новин для висвітлення та способі їх висвітлення. Як фактори оцінки ця система використовує чуттєвість/емоційність (вираженість почуттів у повідомленні), суб’єктивні прикметники (на кшталт «екстремальний», «сором’язливий», «серйозний» тощо) та особисті випади чи образи. На основі цих даних система моніторингу може оцінити упередженість досліджуваних медіа.

Наслідки для медіа

На завершення хотілося б поміркувати про динаміку сучасного медіасередовища, наголосити на таких викликах, як аудит контенту, необхідність адаптації медіапрактик у відповідь на технологічні трансформації, збільшення обсягів інформації та зниження довіри до фактчекінгу.

Тому медіа мають зосередитися на побудові довгострокової довіри, виконуючи роль авторитету в цьому питанні, і водночас звернути увагу на ШІ не лише як на можливого конкурента на ринку праці, а і як на помічника, що має потенціал допомогти не лише у вирішенні внутрішніх завдань, таких як наповнення та перевірка контенту, а й у розв’язанні суспільних проблем, таких як зниження рівня медіаграмотності.

Я також хотіла б підкреслити важливість адаптивності та співпраці між людьми й штучним інтелектом для підтримки інтегрованого та довірливого медіаландшафту.


Примітка до статті

У статті йдеться про сучасну роль різних інструментів фактчекінгу та їхній вплив на аудиторію. Цей матеріал ґрунтується на темах, що виникли під час фокус-групи, в якій взяли участь представники з-поміж журналістів, розробників інструментів фактчекінгу та експертів з питань безпеки. У фокус-групі спочатку обговорювали тему «Поточний розвиток інструментів штучного інтелекту в Чеській Республіці та їх можливе використання, обмеження та прогнози в стратегічній боротьбі в інформаційній війні». Ці дебати та ініціативи, які випливають з них, обговорюються і в цій статті, наприклад, цілеспрямований вплив і роль медіа як авторитету, обмеження у вигляді навмисної релевантності та правдивості, значення маркування, дедалі більша споживча апатія і важливість медіаграмотності для населення.

Джерело зображення: Штучний інтелект, створено за допомогою Dall-e 2023


Стежте за нами у Facebook.

Send this to a friend