на головну сторінку незалежний культурологічний часопис <Ї>

   www.ji-magazine.lviv.ua
 

Настя Мельниченко

Понад 50% усього інтернет-трафіку
генерується автоматизованими системами

Вчора в ТікТоці я почула фразу, в яку спершу не повірила, але яка підтвердилася в наукових джерелах: вперше в історії понад 50% усього інтернет-трафіку генерується автоматизованими системами. Тобто це ботня та АІ, або АІ-ботня.

Тобто ось так потроху-потроху формується нова норма т.зв. "Мертвого інтернету", де ми переходимо від епохи "людина-людина" до епохи "людина-алгоритм", часто не усвідомлюючи цього.

У загальному шумі боти становлять десь 20%, але в моменти політичної активності - 44% (але це дані лонгітюдного дослідження ще з часів COVID та інших подій 19-21 років, а не останніх років, тобто зараз реальність гірша). Відсоток так званих "зловмисних ботів" зараз становить 37% від загального трафіку.

Ми втратили здатність вирізняти їх від реальних людей. Ще у лонгітюдному дослідженні подавався бал 0.69 при порозі у 0.7 після якого ми вже не відрізнимо. Але лонгітюдне, хоч і вийшло у 2025 році, але треба памʼятати, що воно не найновіше.

Реальність же зараз така: ШІ дозволив ботам подолати бар'єр Тюрінга у повсякденній комунікації і зробив їх здатними писати емоційні, контекстуально релевантні тексти та проходити CAPTCHA.

Говорячи про боти, важливо розуміти їхню функцію: вони використовуються для соціального впливу. Як? Працюючи з груповою ідентичністю людини, дуже часто - створюючи поляризацію суспільства зі зловмисною метою, підважуючи демократичні процеси.

Боти створюють карикатурні ідентичності, гіпер-ідентичності. Наприклад, реальна людина може демонструвати варіативність (людина може бути "батьком", "любителем джазу" і "лібералом" одночасно). Боти ж концентруються на одній ідентичності (наприклад, "релігійний консерватор") і використовують словниковий запас відповідно цій ролі. Мова ботів агресивніша, вони ніколи не змінюють думку. Під час виборів (США, Канада - бо саме там здійснювалися виміри, у нас, звісно, це все те саме, навіть гірше) боти навмисно збільшують використання емоційно забарвленої лексики, щоб спровокувати афективну поляризацію. Боти частіше апелюють до соціальних ліній розлому (політика, раса, гендер), незалежно від задекларованої ідентичності.

Раніше боти брали кількістю. Тепер це не потрібно 🙂 Використання великих мовних моделей дозволяє ботам генерувати унікальні, адекватні ситуації коментарі, що імітують "низову" підтримку або протест. А отже штучно створені політичні рухи майже неможливо відрізнити від справжніх. Якщо ви постили щось під час "картонкових протестів" (на їх підтримку), то могли це помітити, особливо в ТікТок 😉 Соціальне конструювання дійшло такого рівня, що власникам ботів вигідніше ставити їх у стратегічно важливі вузли (наприклад, в коментарі під пости лідерів думок), а не завалювати масовістю. Це робиться для фундаментальних змін природних законів формування спільнот. Тереблячи нашу групову ідентичність і потребу належності можна досягнути дуже багато чого 😉 На відміну від попередніх років, коли боти просто поширювали фейки, нові алгоритми націлені на поглиблення соціальних розколів. Розділяй та володарюй, істина стара як світ.

Найефективніший спосіб розколоти групу - розмістити ботів-"фанатиків" на обох крайніх полюсах спектра. Це розриває соціальну тканину швидше, ніж однобічна пропаганда.

Чому це все кепсько може для нас завершитися? Боти створюють ілюзію масової підтримки певного явища чи думки, що змушує реальних людей приєднуватися до думки "більшості", якої насправді не існує. Якщо у 2022 році більшість українських повідомлень розбрату фіксувалися як російські чи проросійські за походженням (я припускаю, що це була ботня, хоча саме цей аспект і не досліджували, визначаючи лише загальне забарвлення та географічне походження акаунта), то цьогорічний звіт cat-ua показує, що ці переконання інтерналізувалися нашими людьми (наприклад, тепер біженців ненавидять щиро і свої ж, ггг). Через надмірне використання ботами токсичної лексики та агресії, реальні користувачі можуть витіснятися з дискурсу або радикалізуватися у відповідь. Виходять срачі феєричні, але, на жаль, неорганічні.

Що ж пропонується робити у цій ситуації?

Головне - традиційно - це підвищення медіаграмотності до рівня, коли користувач за замовчуванням має низьку довіру до незнайомих агентів. Математичні моделі показують, що це єдиний фактор, здатний знизити поляризацію при масованій атаці. Пріоритетом має бути захист акаунтів-інфлюенсерів та вузлів з високою центральністю від захоплення або імітації, оскільки саме через них відбувається основна поляризація.

Дослідження підкреслють, що ми входимо в еру, де соціальний доказ - один з ключових психологічних механізмів формування думки - може бути повністю сфабрикований. Для соціальних психологів це означає необхідність перегляду теорій групового впливу в онлайн-середовищі, бо "група", що здійснює вплив, може не існувати фізично.

Який цікавий час, аби стати соціальною психологинею, ну %)

5 01 2026

https://www.facebook.com/nastya.melnychenko/?locale=uk_UA





 

`