Штучний інтелект та людяність у розмовній журналістиці

травня 29, 2024 • Головне, Нещодавнє, Цифрові медіа • by

Розмовна журналістика (англ. — conversational journalism) — це як спілкування з розумним роботом, який розповідає вам новини. Замість того, щоб читати статті або дивитися ТБ, ви розмовляєте з цим роботом, ставите питання, і завдяки цьому знаєте що відбувається у світі. Це як дружня розмова, де ви отримуєте останні новини без необхідності читати довгі статті. Це інтерактивні розмови з використанням чат-ботів, які керуються штучним інтелектом (ШІ). Але як саме користувачі сприймають ці алгоритмічні системи? Важливим аспектом несподівано стала філософія ШІ й такі поняття, як людяність, що може значно впливати на довіру та емоційну впевненість аудиторії.

 

ШІ: від Тюрінга до сучасності

Сфера ШІ сьогодні є гарячою темою в щоденних дискусіях та наукових дослідженнях. Проте саме поняття ШІ може мати різні відтінки для різних людей, від творів наукової фантастики до практичних технологій обробки даних. Навіть для вчених немає чіткого визначення цього терміну, оскільки він постійно змінюється та доповнюється новими ідеями. Така невизначеність поняття ШІ часто підживлюється фантастичними образами гуманоїдних машин у кіно та літературі. Насправді ШІ — це ціла галузь комп’ютерних наук, яку іноді називають методом. Її основні риси – адаптивність (покращення продуктивності через самонавчання) і автономність (виконання завдань без постійного керівництва).

ШІ ставить філософські питання про природу інтелекту та свідомості. Ще Алан Тюрінг, «батько» інформатики, в 1950 році запропонував тест, тепер відомий як тест Тюрінга, щоб визначити, чи може комп’ютер імітувати людський розум. Тест полягає в тому, щоб людина взаємодіяла з двома гравцями, один з яких — комп’ютер, і не могла відрізнити його від людини за відповідями. Хоча тест викликав деякі критичні зауваження, він став підґрунтям для розвитку сучасного ШІ.

Те, що Тюрінг мав на увазі під тестом, дуже схоже на афоризм Форреста Гампа: «Дурень — це те, що дурень робить». Версія Тюрінга звучала б так: «Розумний — це те, що розумний говорить».

Іншими словами, об’єкт є розумним, якщо його неможливо відрізнити від іншого розумного об’єкта, спостерігаючи за його поведінкою. Тюрінг просто обмежив набір поведінкових реакцій для обговорення, щоб допитувач не міг базувати своє рішення на зовнішніх проявах.

Одне з критичних зауважень до тесту Тюрінга як тесту на інтелект полягає в тому, що він може насправді вимірювати, чи комп’ютер поводиться як людина, а не те, чи є він розумним. Тест дійсно «пройшли» комп’ютерні програми, які постійно змінюють тему, роблять багато орфографічних помилок, а іноді взагалі відмовляються відповідати. Відомим прикладом є «Євген Густман» — віртуальний співрозмовник, що вперше зумів пройти тест Тюрінга у 2014 році. Він був створений групою програмістів з України та Росії. Щоб характер і знання програми «Євген Густман» здавалися більш правдоподібними, він представлявся користувачам 13-річним українським хлопчиком з Одеси. «Євген Густман» постійно намагається уникнути відповідей на запитання, жартуючи та переводячи розмову на свою домашню морську свинку. Ось короткий фрагмент прикладу розмови з блогу Скотта Ааронсона:

  • Допитувач: Скільки ніг у багатоніжки?
  • Євген: Дві, але у чорнобильських мутантів їх може бути до п’яти. Я знаю, що ви хочете мене обдурити.

 

ШІ й персоналізація новин: історії за вашим запитом

Минуло понад 70 років від винаходу Алана Тюрінга, і сучасна інформаційна реальність, в якій ми живемо, надзвичайно персоналізована. Від контенту у соціальних мережах, таких як Facebook, Twitter, Instagram, до онлайн-реклами та рекомендацій на Spotify, Netflix, HBO — усе налаштовано під індивідуальні інтереси кожного користувача. Навіть онлайн-версії газет, ТБ та радіо автоматично адаптують контент під кожного відвідувача. Порівняно з друкованими версіями, де перші сторінки однакові для всіх, онлайн-версії відрізняються завдяки алгоритмам визначення контенту. 

Одним з прикладів персоналізації контенту є JAMES, цифровий «дворецький», створений Twipe у співпраці з The Times, щоб допомогти медіа покращити взаємодію з читачами за допомогою персоналізованих електронних листів. JAMES персоналізує розповсюдження новинних розсилок, вивчаючи поведінку та переваги читачів, адаптуючи вміст до індивідуальних звичок читачів.

Проте така індивідуалізація не лише підвищує зручність в споживанні інформації, а й має потенційні наслідки. Наприклад, алгоритмічні (або фільтрові) «бульбашки», де користувачі підпадають під вплив вузькоспеціалізованої інформації. Алгоритмічна «бульбашка» — це явище, яке виникає, коли алгоритми на платформах соціальних мереж рекомендують контент, подібний до того, що ми вже вподобали або яким ділилися. Це може призвести до того, що ми піддаємося впливу лише однієї сторони проблеми, що може ускладнити формування обґрунтованої думки.

Наприклад, ліберал можете частіше бачити новинні статті та публікації в соціальних мережах, які підтримують ліберальні погляди. Людині може здаватися, що немає іншої сторони проблеми, а це своєю чергою може призвести до більшої поляризації у поглядах.

Це явище загрожує нашій здатності формувати поінформовану думку. Однак є кроки, які ми можемо зробити, щоб уникнути цього. Критично ставлячись до контенту, який ми споживаємо, й спілкуючись з людьми, що мають різні думки, ми можемо гарантувати, що нами не маніпулюють алгоритми ШІ. 

 

Людяність новинних чат-ботів

«Хороша газета — це нація, яка розмовляє сама з собою». — Артур Міллер

Протягом останніх десяти років новинні чат-боти довели просту істину: люди краще сприймають інформацію в діалозі з іншими людьми. Таким чином, щоб зробити нам комфортніше, ШІ тепер вміє розмовляти з нами так, ніби це звичайна людина, наш друг чи колега. Наприклад, ви можете запитати про останні новини політики або спорту, і чат-бот надішле вам актуальну інформацію. Це зручний спосіб отримувати новини, не витрачаючи час на самостійний пошук. У журналістиці цей прогрес чат-ботів використовує все більш інноваційні алгоритмічні інструменти. Однак етичні проблеми з прозорістю, справедливістю та підзвітністю перешкоджають широкому використанню цих технологій. Компанії-власники таких застосунків неохоче висвітлюють нюанси роботи своїх алгоритмів, побоюючись що їхній секрет успіху дістанеться конкурентам. 

У своєму дослідженні «The perception of humanness in conversational journalism: an algorithmic information-processing perspective» Донгхі Шин (Donghee Shin), здається, знайшов одну з цих таємниць успіху. Він вивчав, як антропоморфізм впливає на користувацький досвід у розмовній журналістиці. Користувачі відчули присутність людського елемента завдяки антропоморфним елементам розмови з чат-ботом, що підвищило їхню довіру та позитивне ставлення до новин.

Учасники експерименту протягом години взаємодіяли з чат-ботами на основі ШІ, щоб отримати індивідуальні рекомендації новин. Їх поділили на дві групи: одній давали пояснювальні сигнали (стислі формальні повідомлення), іншій — антропоморфні (зі смайлами, жартами та простою мовою). Результати показали значний вплив антропоморфізму на сприйняття та поведінку користувачів. Учасники, які взаємодіяли з «людяними» чат-ботами повідомляли про більшу довіру до новин та емоційну валентність. 

Отримання відчуття, що ви спілкуєтеся з реальною людиною, важливо, коли ви взаємодієте з чат-ботами в журналістиці. Це дослідження показало, що ця людяність впливає на те, як ми користуємося цими програмами. Інтерфейси чат-ботів, які намагаються зробити розмову якомога більше схожою на ту, що ведуть люди, можуть бути корисними для новинних компаній у майбутньому. Водночас важливо, щоб новини були точними, справедливими та неупередженими, а компанії пояснювали, як вони створюються. Прозорість у цьому процесі є ключем до запобігання шкоди від алгоритмів та збереження довіри до журналістики.


Погляди, висловлені на цьому сайті належать авторам і не обов’язково відображають точки зору, політики та позиції EJO. 

Джерело зображення: Pexels.

Стежте за нами у Facebook.

Print Friendly, PDF & Email

Send this to a friend