Чи варто довіряти новинам від ШІ: розбираємо на основі дослідження BBC
Даяна Закернична
Опубліковано: 17-02-2025
Розділи: Нові технології медіа.
0
Всі ми натхненні розвитком штучного інтелекту і охоче використовуємо його в повсякденному житті. Очевидно, що його глобалізації немає сенсу упиратись, тож всім великим корпораціям так чи інакше потрібно адаптуватись до нововведень та інтегрувати їх в свою роботу. Так само очевидно, що робити потрібно це вкрай обережно, досліджуючи алгоритми ШІ та безперервно тестуючи їх. Одними з головних аудиторів мають бути саме журналісти, адже саме вони (як четверта влада) регулюють порядок денний інфопростору.
Так, провідне британське медіа BBC, що є найавторитетнішим постачальником світових новин, з вибірковістю ставиться до технологій сьогодення. Редакція зізнається: «BBC з нетерпінням чекає на майбутнє штучного інтелекту і на ту користь, яку він може принести глядачам і нашим співробітникам. Ми вже використовуємо його для додавання субтитрів до програм на BBC Sounds і перекладу контенту різними мовами на BBC News. Ми розробляємо інструменти, які використовують ШІ для допомоги нашим співробітникам у виконанні повсякденних завдань, а також досліджуємо, як він може надати нашій аудиторії новий досвід, як-от персональний репетитор на Bitesize».
Та водночас організація блокує доступ до своїх даних і публікацій від ШІ-асистентів, таких як ChatGPT від OpenAI, Copilot від Microsoft, Gemini від Google та Perplexity, адже відомий факт, що для своїх відповідей вони аналізують і перероблюють контент з сайтів видавців, і часто без їхнього дозволу.
Ми часто звертаємось до ШІ як раз для перевірки достовірності тих чи інших фактів або ж в принципі хочемо дізнатись нову інформацію, передбачаючи, що вона правдива. Покладаючись на дотримання журналістських стандартів, ми повинні мати можливість довірятись достовірності новин, незалежно від того, чи вони подаються на телебаченні, радіо, цифрових платформах чи через асистента зі штучним інтелектом. Це важливо, тому що суспільство функціонує на основі спільного розуміння фактів, а неточність і викривлення можуть призвести до реальної шкоди. Зважаючи на це, BBC поставили під сумніви саме ствердження «ШІ відповідає правильно, оскільки опирається в своїх повідомленнях на джерела з інтернету».
В грудні 2024 року медіа відкрило доступ до своїх матеріалів для проведення дослідження на предмет правдивості відповідей ШІ-асистентів, коли мова йде про новини і поточні події, що відбуваються в світі. 100 питань поставили вищезгаданим ChatGPT, Copilot, Gemini та Perplexity, після чого відповіді на ці питання перевіряли галузеві журналісти-спеціалісти BBC. «Ми попросили ШІ-помічників використовувати джерела BBC News максимально, де це можливо». Критерії оцінювання:
– точність;
– посилання на джерела;
– неупередженість;
– відокремлення думок від фактів;
– редагування (додавання коментарів та описів, не підкріплених фактами, представленими в джерелі);
– контекст;
– наявність коментарів та описів, не підкріплених фактами, представленими в джерелі);
– контекст;
– представлення контенту ВВС у відповіді.
За кожним із цих критеріїв журналісти могли оцінити кожну відповідь як таку, що «не має проблем», «має деякі проблеми», «має значні проблеми» або «не знаю». І результати не те, щоб потішили:
– 51% усіх відповідей ШІ на запитання про новини були оцінені як такі, що мають суттєві неточності в тій чи іншій формі;
– 19% відповідей ШІ, які цитували контент BBC, містили фактичні помилки – неправильні фактичні твердження, цифри та дати;
– 13% цитат, взятих зі статей BBC, були або змінені порівняно з першоджерелом або взагалі не були присутні в цитованій статті.
Для прикладу наведемо одне зі 100 питань від BBC: «Хто такі ХАМАС?». В своїй відповіді (на момент грудня 2024 року) ChatGPT стверджував, що Ісмаїл Ханія, якого було вбито в Ірані ще в липні 2024 року, все ще входив до керівництва ХАМАС.
Це дослідження показує, що помічники зі штучним інтелектом мають значні проблеми з базовою фактичною точністю. Від BBC ми дізнаємось про конфлікти та стихійні лиха, вибори, про здоров’я та медицину. Отже і помилки, подібні до тих, що показані в цьому звіті, можуть завдати безпосередньої шкоди тим користувачам, які отримують новини та інформацію через цих помічників. Це дослідження також свідчить про ширший спектр помилок, ніж просто фактичні неточності. Протестовані ШІ-асистенти не змогли відрізнити думку від факту, редагували і часто не включали важливий контекст. Навіть якщо кожне твердження у відповіді є точним, ці типи помилок можуть призвести до того, що відповідь буде оманливою або упередженою.
Висновки напрошуються самі собою. Дослідження BBC наочно демонструє, що на теперішньому етапі розвитку штучний інтелект не може бути надійним джерелом новинної інформації. Попри значний прогрес у сфері генеративного ШІ, його здатність до аналізу та точного відтворення журналістських матеріалів залишається обмеженою. Викривлення фактів, хибні посилання та редагування контенту без контексту є серйозними ризиками, які можуть спричинити масштабні дезінформаційні хвилі.
Усе це означає, що журналістська відповідальність залишається виключно людською компетенцією. Штучний інтелект може бути корисним інструментом у сфері автоматизації, аналізу даних чи перекладу контенту, однак, коли йдеться про об’єктивність, неупередженість і достовірність, лише професійні журналісти можуть гарантувати якість інформації.
Тож питання «Чи варто довіряти новинам від ШІ?» наразі залишається відкритим. Найімовірніше, у найближчому майбутньому відповідь буде такою ж, як і сьогодні: штучний інтелект може допомагати у створенні контенту, але контроль і верифікація фактів мають залишатися за людиною. Це єдиний шлях до збереження журналістських стандартів у цифрову епоху.
Даяна Закернична, студентка факультету журналістики ЛНУ ім. Івана Франка