Закон Європейського Союзу про ШІ: нові обов’язки та права для журналістів

серпня 12, 2024 • Головне, Етика та якість, Нещодавнє, Цифрові медіа • by

ШІ іноді краще, а іноді гірше створює зображення відповідно до вимог. Це зображення згенерував Dall-E 3 за запитом «Закон ЄС про ШІ з двома людьми і юридичним текстом». Як зображення ШІ, воно не захищене авторським правом.

У 2024 році в ЄС набув чинності перший у світі закон про використання додатків ШІ. Це може позитивно вплинути на захист майнових прав працівників медіа.

У травні 2024 року Європейська Рада ухвалила Закон Європейського Союзу про штучний інтелект. Тепер справа за країнами-членами, які мають імплементувати його в національне законодавство. Як перший у світі закон про штучний інтелект, він має на меті регулювати використання нових технологій, запобігати зловживанням і захищати громадян та їхні права. Це робить ЄС піонером порівняно, наприклад, із США чи Китаєм, що призведе до помітних відмінностей у використанні та розвитку систем штучного інтелекту в майбутньому. На додаток до загальних змін, що відбудуться в результаті регулювання для всіх користувачів і постачальників додатків зі штучним інтелектом, є дві особливості для журналістів та працівників медіа. По-перше, комп’ютерні тексти та зображення в майбутньому повинні будуть маркуватися, а по-друге, авторське право буде краще захищене щодо даних, які використовуються для навчання ШІ.

 

Ризик-орієнтований підхід Закону про ШІ покликаний гарантувати безпеку систем ШІ

За допомогою Закону про штучний інтелект Європейський парламент хоче встановити єдине визначення штучного інтелекту, яке також повинно застосовуватися до майбутніх розробок ШІ та створити обов’язкову основу. Закон визначає чотири рівні ризику систем ШІ залежно від контексту їх застосування. Залежно від цих рівнів ризику до постачальників і користувачів застосовуються різні правила.

До першого рівня ризику належать системи ШІ, які розглядаються як загроза безпеці та правам людей, тому ці пов’язані з неприйнятним ризиком системи заборонені. Це, наприклад, маніпулювання вільним волевиявленням і нецільовий збір даних про обличчя.

Системи штучного інтелекту, які можуть мати негативний вплив на безпеку або основні права людей, складають другу групу та класифікуються як високоризикові. Ці технології штучного інтелекту мають високий потенціал шкоди здоров’ю, безпеці, основним правам, навколишньому середовищу та демократії, а також верховенству права, і тому підпадають під чіткі зобов’язання. Зобов’язання включають недискримінаційні набори даних, прозору функціональність і високий рівень безпеки та точності. У повсякденному житті це може включати, наприклад, автоматизацію процесів найму, доступ до освіти чи легальну адміністративну роботу.

Третя група складається з додатків ШІ, де ризик є обмеженим, що значною мірою пов’язано з недостатньою прозорістю для користувачів. Це генеративні «ШІ загального призначення», які та їхні продукти в майбутньому повинні бути розпізнані як ШІ або створені за допомогою ШІ. Наприклад, взаємодія з чат-ботом має бути позначена як така. Особливо цікаво, що в майбутньому документація про використані навчальні дані, наприклад, ті, що підпадають під дію закону про авторське право, повинна бути доступною для постачальника.

Четвертою є група систем штучного інтелекту, які можна використовувати безоплатно і з мінімальним ризиком. До них належать такі програми, як відеоігри або спам-фільтри. Більшість систем штучного інтелекту, які зараз використовуються в ЄС, належать до цього рівня ризику.

«Таким чином, Закон про ШІ менше стосується редакційної діяльності».

Такого висновку дійшов медіаюрист Крістіан Сольмеке щодо нових зобов’язань і відповідальності, які Закон про ШІ покладає на журналістів. Це пов’язано з тим, що при використанні ШІ з другої та четвертої груп до всіх користувачів — незалежно від контексту — висуваються однакові вимоги.

Іншою є ситуація з третьою групою ШІ — генеративним «універсальним ШІ». Це пов’язано з тим, що він зачіпає журналістів більше, ніж інші професії. Це генератори текстів або зображень, чиї продукти в майбутньому підлягатимуть обов’язковому маркуванню. З цією метою зображення та тексти з ШІ мають містити цифрові водяні знаки, щоб забезпечити їхнє постійне розпізнавання як штучних продуктів. У сфері текстів і зображень результати роботи генеративних програм можуть бути дуже близькими до того, що може створити людина, або до того, що може бути використано як зображувальний матеріал для фейкових новин. Вже з цієї причини обов’язкове маркування — особливо для зображень — видається розумним. Однак незрозуміло, як можна технічно реалізувати маркування текстів. Особливо коли йдеться про те, щоб окремі речення або фрагменти тексту залишалися постійно розпізнаваними як продукти ШІ, наприклад, якщо вони використовуються в більшому тексті. Проста примітка в тексті здається найкращим рішенням, але вона також ґрунтується на довірі та не обов’язково назавжди ідентифікує текст.

 

Те, що не регулюється зобов’язанням щодо маркування, вже охоплюється журналістськими стандартами обережності

Оскільки тексти ШІ часто містять неправду або перекладаються чи узагальнюються таким чином, що спотворюють зміст, журналісти зобов’язані використовувати системи ШІ з належною обережністю. Те, що не регулюється Законом про ШІ, але може бути передбачено з міркувань професійної етики,  є ознакою використання штучного інтелекту для дослідження. Подібних етичних настанов щодо використання ШІ дотримується, наприклад, Британське бюро з біотехнологій. У цьому сенсі Закон про ШІ не може внести нічого суттєвого, чого б не вимагали журналістська належна обачність і професійна етика. Однак з авторським правом справи йдуть інакше.

 

Потенціал Закону про ШІ для захисту авторських прав

У сфері авторського права Закон про ШІ можна розглядати як позитивний знак. На поточному етапі розвитку ШІ не здатен створювати оригінальний контент. Замість цього він використовує чужі та вже чинні думки — так звані навчальні дані — щоб рекомбінувати їх та генерувати відповіді. Про це також йдеться в юридичному тексті Закону про ШІ. У ньому підкреслюється, що розробка та навчання ШІ вимагає доступу до великих обсягів необроблених даних, причому дані, які використовуються для цієї мети, можуть бути захищені авторським правом. Закон про ШІ логічно передбачає, що будь-яке використання цих даних для навчання потребує попередньої згоди правовласників. Щоб підвищити прозорість генеративного ШІ щодо даних, які використовуються, постачальники цих програм зобов’язані надавати досить докладні зведення про використані навчальні дані, особливо щодо можливих авторських прав на ці дані. Навіть безоплатний ШІ з відкритим вихідним кодом не звільняється від цієї вимоги до документації.

Тому при імплементації Закону про ШІ в національне законодавство, по-перше, виникає питання, чи не використовували журналістські продукти розробники ШІ у спосіб, який міг порушити чинні права власності, що стане очевидним через обов’язкове розкриття інформації. По-друге, залишається незрозумілим, чи матиме це правові наслідки на користь порушених правовласників і якою буде юридична практика з таких питань власності. У сфері авторського права Закон про штучний інтелект, безумовно, можна розглядати як позитивний знак. Адже він покликаний захистити права людей, чия інтелектуальна праця створює основу, на якій додатки ШІ генерують свої тексти.


Цей текст було вперше опубліковано на німецькому сайті EJO 25 липня 2024 року. Українською переклала Олександра Ярошенко.

Погляди, висловлені на цьому сайті належать авторам і не обов’язково відображають точки зору, політики та позиції EJO. 

Джерело зображення: ШІ.

Стежте за нами у Facebook.

 

Print Friendly, PDF & Email

Tags: , , , , ,

Send this to a friend