AI-дезінформація: як генеративний ШІ знищив довіру до відео як доказу

Анна Сікорська

Опубліковано: 18-12-2025

Розділи: За що критикують медіа?, Нові технології медіа, Фальсифікація, містифікація.

0

Відео завжди слугували хорошим доказом, оскільки можна було зафіксувати події та надати візуальне свідчення, проте з появою штучного інтелекту (ШІ) ця довіра до свідчення про різні події через відеоконтент стрімко руйнується. Сьогодні розвиток  технології deepfake (глибинної підробки), face swap (заміни обличчя), voice-AI (синтезу голосу) та full-AI video (повністю згенерованого відео) дозволяють створити контент, що повністю замінюють реальність. Будь-яка особа може бути трансльована у вигаданій ситуації, вимовляти будь-які слова, або ж розмовляти мовою, якої раніше ніколи не говорила.

Прогресування ШІ вийшло за межі наукових лабараторій і практично заповнило усі сфери нашого життя включаючи персональні чатботи і автоматичне створення контенту. Якщо колись для створення відео звернення, чи навіть короткометражного рекламного ролика витрачали дні та навіть тижні створення, із акторами, знімальним майданчиком, сценарієм та багатьма функціями, то тепер ми можемо створити це за лічені хвилини, всього лиш описавши боту, який контент ми хочемо згенерувати.

Як наслідок соціальні мережі, які слугують як простір для обміну знаннями та інформацією перетворються на “фабрику обману”.

Аналітики зазначають стрімке зростання кількості штучного створення контенту, який витісняє справжній контент зроблений людьми. Згідно з дослідженням Graphite, про яке розповідає Notebookcheck, із 2020 по 2025 рік понад 50% текстового контенту було створено за допомогою інструментів штучного інтелекту. Проте, в цій інформації є певні обмеження, до прикладу автори певного звіту аналізують виключно англомовні сторінки, тому це і створює критично-недовірливе ставлення, але масове використання використання  різних ШІ- інструментів користувачами соціальних мереж не викликає, як таких сумнівів у тих, хто переглядає час від часу їхній “штучний” контент.

Зідно іншої компанії Imperva Bad Bot Report за 2024 рік  близько 50% всього інтернет-трафіку генерується не людьми, а ботами, і вони вміло імітують людську поведінку: клікають, «лайкають», коментують, маніпулюючи алгоритмами соціальних мереж. Саме тому, довіра аудиторії до різноманітних медіа, чи провідних чиновників, наставників під загрозою. Унікальні людські промови чи сцени можуть бути витіснені синтетичним контентом, що створює ілюзію популярності та маніпуляційні наративи. І саме у цьому інформаційному  хаосі де межа між правдивим та вигаданим світлом стерта, AI-відео стає не просто фейком, а новою зброєю маніпуляції.

Як працює створення AI-відео

Створення реалістичного синтетичного відео – це не один інструмент, а поєднання кількох високотехнологічних процесів.

  • Генерація обличчя і тіл (Deepfake, DeepFaceLab, FaceApp) – це нейромережі, які навчаються на баготьох зображень та відео певної людини, щоб потім замінити її обличчя чи тіло на оригінальному відео (source video). Результат виглядає максимально природно.
  • Синтез голосу та міміки (Voice-AI / Lip-Sync, ElevenLabs, Lyrebird) – це генеративний ШІ здатний клонувати голос людини на основі короткого аудіосемпла. Це дозволяє озвучити deepfake-персонажа його ж справжнім голосом. Технологія Lip-sync забезпечує синхронізацію руху губ зі згенерованою промовою.
  • Повністю згенеровані сюжети (Video AI, Sora (OpenAI), Runway Gen-2, Pika Labs) – це одні із найновіших та найпотужніших технологій, які створюють цілі, динамічні сцени, які ніколи до цього не існували в реальності, лише на основі текстового опису. Це відкриває шлях до створення певної історії без використанання камери. Навіть створення короткометражних серіалів, всього лиш за дапомогою генерації однієї ші-програми.

Якщо раніше монтаж та створення певних ефектів для відео вимагав дорогих програм, студій різних типів і професійних навичок, тепер потужні ШІ-інструменти доступні практично кожному, і для створення переконливого фейку достатньо мати лише ноутбук та базові знання.

Чому AI-відео небезпечні у медіапросторі

Потенціал ШІ-відео виходить далеко за межі розваг. У контексті війни та суспільної довіри вони стають потужним деструктивним фактором. До прикладу:

  • ШІ-відео можуть бути використані для фальшивих звернень лідерів держав, військових чи політиків. Один із прикладів, що був на початку повномасштабного вторгенення: фейкове відео, на якому президент України Володимир Зеленський просить цивільних скласти зброю перед російськими військовими. На відео голова має непропорційний розмір до решти тіла, а також є різниця між відтінками шкіри шиї та обличчя.(надішлю окремо відео)
  • ШІ-відео використовують як інструмент інформаційно-психологічних операцій  для хибних свідчень про бойові дії та «успіхи армій» та поширення чуток, що створюють паніку серед населення або деморалізують війська. Нещодавно у Європі стало вірусним відео у соцмережах, на яких молодий український військовий плаче через те, що його відправили на передову.

Ще один приклад ШІ-відео фейк про «Дружній вогонь». Російські пропагандисти поширювали відео, де нібито поранений український військовий скаржиться на «дружній вогонь» та відсутність координації. Він закликав українців «слухати і думати», натякаючи, що в армію краще не йти. Медіа Укрінформ підтвердило, що відео було згенероване ШІ та є deepfake-підробкою. Інструменти, такі як DSP-FWA, визначили, що відео на 98% є діпфейком.

Deepfake-сцени із залякуванням, де українського військового нібито прив’язали до дерева як покарання за вживання алкоголю. Проте ЦПД довів, що обличчя чоловіка було згенероване ШІ, а подібні методи покарання є типовими саме для російської армії, що вказує на перекладання власних проблем на ЗСУ.

Також фейкові відео згенеровані ШІ можуть знищити репутацію та приватне життя. Це може слугувати, як шантаж , де обличчя людини накладається на порнографічний чи компрометуючий контент, здатні знищити кар’єру і життя звичайних людей.

До прикладу, фальшиві фото оголеної американської співачки були поширені у низці соцмереж, включно із Х (колишній Twitter) та Telegram. Згодом Х поширив заяву із запевненням “активно вилучає” зображення і вдається “до відповідних дій” проти акаунтів, які поширювали ці зображення. “Ми ретельно відстежуємо ситуацію, аби запобігти подібним порушенням, а сам (фейковий) контент видалено“, – йдеться у заяві соцмережі. Але попри те, що більшість із підробних фото були видалені під час їхньої публікації, одне фейкове зображення Тейлор Свіфт встигли переглянути 47 мільйонів користувачів – до того, як його прибрали.

Найгірший довгостроковий ефект ШІ-відео полягає в тому, що аудиторія, зіткнувшись із постійним потоком фейків, перестає вірити навіть правді. Коли що завгодно може бути підробкою, люди або відмовляються від візуальних джерел взагалі, або, навпаки, починають довіряти найабсурднішим теоріям змови. Це руйнує здатність суспільства до критичного мислення.

Що має робити журналістика та редакції

За умов поширення ШІ-відео медіа та редакції більше не можуть покладатися лише на візуальну перевірку “на око”. Відповідальна журналістика має вжити системних заходів.

  1. Посилення перевірки відео як джерела: відеоматеріал повинен проходити такий самий рівень фактчекінгу, як і будь-яка текстова чи статистична інформація. Вимагати первинне джерело та ланцюжок доказів.
  2. Пріоритет офіційних та первинних джерел: для чутливих тем (війни, катастрофи, політика, вибори) використання лише офіційних повідомлень або прямих свідчень, підтверджених кількома незалежними джерелами.
  3. Використання інструментів виявлення deepfake: необхідність впровадження спеціалізованих інструментів для аналізу контенту: Hive, Deepware, Intel FakeCatcher та інші, що аналізують метадані, артефакти стиснення та нерівномірність у русі.
  4. Чітке маркування ШІ-контенту: будь-яке відео, створене, змінене або посилене за допомогою ШІ, повинно мати обов’язкове, чітке та помітне маркування (наприклад, «Згенеровано ШІ» або «Змінено за допомогою ШІ-інструментів»).
  5. Відмова від ШІ-ілюстрацій у чутливих темах: Використання ШІ-відео як ілюстрацій у матеріалах про війну, насильство, вибори або протести є неприпустимим, оскільки це може підірвати довіру до репортажу в цілому.

Сьогодні технології змінюються значно швидше, ніж рівень медіаграмотності суспільства. Поява генеративного ШІ остаточно перетворила відео на потенційну зброю, яка може бути використана для маніпуляції та руйнування суспільної довіри.

Тож майбутнє незалежної та відповідальної журналістики, а також стійкість демократичного суспільства, залежить від того, чи навчимося ми протистояти фейковому відео. Суспільство змушене навчитися свідомо сумніватися у тому, що бачить і чує, застосовуючи критичне мислення та вищезазначені чеклісти. Водночас, завдання медіа – захистити автентичні джерела, застосовуючи найсучасніші технології перевірки.

Анна Сікорська, студентка факультету журналістики ЛНУ ім. Івана Франка

Comments are closed.