Медіасвіт в епоху постправди: як алгоритми формують наші погляди

Олег Гончарук

Опубліковано: 12-01-2026

Розділи: Огляди, аналітика.

0

Створення соціальних мереж стало важливою віхою в революції комунікаційного простору в інтернеті. Вони надали можливість широкій громадськості як безпосередньо  спілкуватися зі своїми друзями та колегами в режимі реального часу, так і отримувати різного роду неофіційну інформацію, яку в переважній більшості не публікували традиційні медіа.

Легкий доступ до публікацій контенту в соціальних мережах надав змогу людям активно постити не лише «сторіси» з власного життя, а й величезну кількість неправдивого контенту з метою формувати думки широких мас стосовно певного феномену у суспільстві. Цьому активно сприяли відповідні алгоритми, які масово видавала людям бажаний для них контент, що врешті-решт переросло в те, що дослідниками медіа було названо  «інформаційною бульбашкою».

Питання роботи алгоритмів часто стає предметом дискусії серед експертного середовища науковців соціальних дисциплін. Вони активно дебатують про те, наскільки ці алгоритми є незалежними від керівництва компаній, що володіють відповідними застосунки та чи самі люди формують їх власний дискурс чи за них це робить хтось інший?

Керівництво техногігантів публічно декларує принципи нейтральності та збалансованості контенту. Проте ці заяви регулярно розбиваються об хвилі критики з різних політичних таборів: кожна сторона звинувачує платформи в упередженості, намагаючись довести, що алгоритми підігрують їхнім опонентам. Така полярність думок змушує нас глибше дослідити саму природу алгоритмічних систем та зрозуміти, як саме вони моделюють наші вподобання.

Самі по собі алгоритми не є чимось поганим чи хорошим, вони лише слугують медіатором для визначення уподобань користувача соціальних мереж. Якщо певна людина переглядає продовж тривалого часу контент на певну тематику, то не дивно, що він буде висвітлюватися їй частіше у стрічці. Те саме відбувається і з політичними уподобаннями, де людині, яка активно переглядає консервативний контент буде видавати один тип контенту, а ліберальний – інший.

Негатив же створює формування закритості певної спільноти під впливом алгоритмізації, де опонент перетворюється на ворога, а всі новини сприймаються з підвищеною чутливістю, що може формувати подальшу поляризацію у суспільстві. Важливим у цьому відношенні є поняття “ехокамери”, коли людина на постійній основі отримує лише ту інформацію, яка підсилює її уявлення стосовного певного феномену, не дивлячись на те правда це чи ні.

В епоху постправди ця проблема є ще більш вираженою, оскільки може спричиняти сплеск насильства в суспільстві через величезну кількість схожих публікацій у соцмережах, які нав’язують думку людині щодо певної спільноти. Уявити таку величезну кількість маніпулятивного контенту ще навіть 30 років тому було майже неможливо, хоча й тоді вона була. Якщо радянська пропаганда була монолітною та нав’язувалася зверху, то сучасна маніпуляція — невидима. Вона підлаштовується під ваші вподобання, тому її значно важче розпізнати.

Хоча й керівництво багатьох техногігантів активно наголошує стосовно дотримання принципів прозорості та балансу інформації, але все ж перебування у так званих «бульбашок» не дає людям чисто фізично бачити далі свого невеликого інфопростору, де можуть циркулювати  маніпулятивні повідомлення. Лише відокремленість від них шляхом фільтрування та належної перевірки контенту як громадськістю, так і компаніями може покращити загальну ситуацію.

Окремої уваги заслуговує феномен ботоферм, до якого активно вдаються як державні, так і недержавні актори для маніпулювання суспільною думкою. Суть цього механізму полягає у створенні тисяч фіктивних акаунтів: вони майстерно імітують поведінку реальних людей, щоб штучно сформувати довіру до певних наративів і ввести в оману масового споживача контенту. Ці фіктивні аканти можуть видавати потрібен для замовника контент, публікуючи різного роду неправдиві свідчення від власного імені. Цьому опосередковано  сприяє сама алгоритмізація, яка, видавши користувачу звичний для нього контент,  може поширити маніпулятивний, створений для дестабілізації всередині держави.

Наочною ілюстрацією став кейс Великої Британії 2024 року, де представники праворадикальних угруповань влаштували погроми, спровоковані дезінформацією. Приводом до заворушень стала фейкова новина про трагедію в місті Саутпорт: стверджувалося, ніби вбивство скоїв біженець-мусульманин. Завдяки алгоритмам ця брехня миттєво поширилася саме серед тих користувачів, які вже мали антиміграційні настрої. Соцмережі спрацювали як детонатор, спрямувавши чутливий контент у найбільш радикалізовані ехокамери. Це, у свою чергу, спровокувало сильний порив агресії й так в налаштованої агресивно групи, що врешті-решт переросло у насильство. Уже згодом  громадськість дізналася, що вбивцею був громадян Великої Британії руандійського походження, а про його релігію нічого не повідомлялося в офіційній пресі. Але цей інцидент увійшов в історії як приклад того, як одна новина може перерости в громадські заворушення, виходячи на певну спільноту та чутливу для неї тему.

Як можемо спостерігати, то алгоритми можуть суттєво впливати на світобачення людей, вкорінюючи в них думку про правильність власних переконань, навіть якщо в реальності ситуація виглядає дещо інакше.

Аби самому не стати жертвою маніпуляцій, слід неухильно дотримуватися правил інфогігієни. Вони базуються на двох принципах: перевірці інформації у кількох незалежних джерелах та збереженні здорового скептицизму щодо будь-яких емоційних новин. Для цього варто використовувати професійні інструменти: наприклад, сервіси StopFake та VoxCheck допоможуть верифікувати вітчизняні новини, а Google Reverse Image Search дозволить миттєво викрити старі фото-«вкиди», які маніпулятори часто видають за свіжі події

Олег Гончарук, магістрант факультету журналістики ЛНУ ім. Івана Франка

Comments are closed.