Існує секретний список слів, які не можна вимовляти в соціальних мережах, або, здається, так усі думають.
Ви, можливо, помітили, що люди уникають певних слів у соціальних мережах.
Вони скажуть «безжиттєвий» (нежиттєздатний) замість «вбитий».
Пістолети - це "постріли" (лавка лавки).
Дорослі мають "сегменти«замість сексу».
Користувачі соціальних мереж першими визнають, що це виглядає смішно.
Але багато хто вважає, що у них немає іншого вибору.
Algogovor (Алгоспік), як його часто називають, — це цілий код слів, побудований навколо ідеї, що алгоритми приховують контент, який використовує заборонені слова чи фрази, — для досягнення політичних цілей компаній, що володіють соціальними мережами, або для очищення стрічок рекламодавців.
Технологічна галузь клянеться, що це неправда.
«YouTube не має списку заборонених або обмежених слів».
«Наша політика відображає наше переконання, що контекст має значення, і що слова можуть мати різні значення та наміри. Ефективність такого багаторівневого підходу очевидна в різноманітності наших тем, голосів та точок зору, які ви можете побачити на YouTube», – сказав BBC Бут Буллвінкл, речник YouTube.
Meta та TikTok стверджують одне й те саме: ми ніколи цього не робимо, це міф.
Правда, однак, складніша за це.
Історія рясніє прикладами того, як соціальні мережі непомітно впливають на те, який контент піднімається та падає, іноді таким чином, що це суперечить їхнім заявам про прозорість та нейтральність.
Навіть коли справа не зводиться до окремих слів, експерти кажуть, що технологічні гіганти втручаються, щоб непомітно обмежити поширення деяких матеріалів.
Проблема в тому, що ви ніколи не знаєте, чому один з ваших постів зазнав невдачі.
Ви сказали щось, що порушило алгоритми, чи просто зробили погане відео?
Ця неоднозначність підживила поширення режиму самоцензури.
В результаті люди говорять про серйозні теми дурнуватою мовою.
Але коли справа доходить до крайнощів, деякі користувачі, які хочуть стати вірусними, взагалі уникають певних тем.
У світі, де соціальні мережі є основним джерелом новин та інформації для зростаючого відсотка громадськості, це може означати, що існують деякі ідеї, про які люди ніколи не чують.
- Чи комп’ютерний алгоритм проковтнув тисячі найбідніших у Сербії
- Як мій телефон дізнався, що я граю в настільний теніс
- У Сербії циркулюють фальшиві призові ігри: як розпізнати шахрайство
Острвлянін
Просто запитайте Алекса Перлмана.
Він має мільйони підписників у TikTok, Instagram та YouTube, відомий своїм комедійним контентом та твердими політичними поглядами.
Алгоритмічна цензура – це постійне явище, каже він.
«Почну з TikTok, я рідко вимовляю слово «YouTube».
«Принаймні, з мого досвіду, якщо я дивлюся на аналітику, коли я кажу щось на кшталт «відвідайте мій канал YouTube», це відео не буде показано», — каже Перлман.
І він у цьому не один.
Цей досвід змусив Перлмана та інших творців припустити, що TikTok не хоче перенаправляти людей до конкурента і просто видалить вас за те, що ви його запропонували.
(TikTok стверджує, що цього не робить.)
Але іноді, каже Перлман, є приклади, які можуть бути ще більш тривожними.
Перлман зняв багато відео про Джеффрі Епштейн у центрі суперечок навколо впливових фігур зі світу бізнесу та політики.
Але в серпні минулого року він помітив щось незвичайне.
«Це було приблизно в той час, коли статті про Епштейна вибухнули повсюди.
«Раптом кілька відео Епштейна видалили з мого TikTok в один день», – каже він.
Ті ж відео залишалися недоторканими в Instagram та YouTube, але вони порушували якесь правило в TikTok, яке він не міг зрозуміти.
«Це не так, ніби вони прийшли та підкреслили речення, яке порушує правила. Вони залишають вас наодинці з розшифровкою того, що вам каже чорна скринька».
Перлман каже, що його запити були відхилені, а TikTok залишив «страйки» на його акаунті, що ставить під загрозу можливість заробляти гроші в додатку.
«Невдовзі після цього ми почали бачити менше відомих акаунтів, які безпосередньо говорять про Епштейна», – каже він.
Здавалося, що інші автори мали подібні проблеми та намагалися догодити алгоритмам, каже Пельман.
Він не припинив знімати відео про Епштейна, але Перлман спробував іншу стратегію.
«Я почав говорити про нього шифрованою мовою, називаючи його «Остров’янином»», – каже він, маючи на увазі сумнозвісний приватний острів Епштейна.
«Проблема із закодованою мовою полягає в тому, що значна частина аудиторії не знатиме, про кого йдеться», – додає він.
Я розмовляв телефоном з речником TikTok.
Він не коментував проблему Перлмана з Епштейном і відмовився від офіційної розмови.
Але він надіслав мені деякий відгук.
Коротше кажучи, TikTok стверджує, що це помилкова думка, яка не відображає того, як насправді працює платформа.

TikTok, Meta та YouTube стверджують, що алгоритми, які керують стрічкою, — це складні, взаємопов’язані системи, що використовують мільярди точок даних, щоб пропонувати контент, який задовольнить користувачів.
І всі три публікують інформацію, яка пояснює, як працюють ці системи.
Наприклад, TikTok стверджує, що його рекомендації базуються на прогнозах ймовірності взаємодії кожного окремого користувача з відео.
Компанії кажуть, що вони видаляють або приховують публікації, але лише тоді, коли цей контент порушує чітко визначені правила, розроблені для забезпечення балансу між безпекою та свободою слова.
TikTok, Meta та YouTube кажуть, що вони завжди повідомляють користувачів про ці рішення, і всі вони регулярно публікують звіти про прозорість, у яких детально описані ці рішення щодо модерації.
Однак на практиці платформи соціальних мереж постійно змінюють, які голоси вони посилюють, а які приховують, що суперечить риториці про відкритість та чесну гру, згідно з розслідуваннями BBC, правозахисних груп, дослідників та інших новинних агентств.
Окремі розслідування, проведені BBC та Human Rights Watch, виявили, що Facebook та Instagram систематично обмежували Палестинські користувачі та контент на підтримку прав людини палестинців протягом тижнів після нападу ХАМАС на Ізраїль 7 жовтня.
Речник Meta заявив BBC, що компанія робить «помилки», але будь-які натяки на те, що вона навмисно придушує певні голоси, є «категорично хибними».
Зі стіків документів 2019 року видно, що TikTok доручив модераторам приховувати контент від користувачів, які є «потворними, бідними, людьми з інвалідністю або ЛГБТК+», оскільки цей матеріал створює «менш гламурне та привабливе» середовище.
На той час TikTok заявив, що ця практика була заходом насильства, який більше не діє.
Ті ж самі документи, що просочилися в мережу, показують, що політика TikTok забороняла «суперечливі» прямі трансляції, коли користувачі критикували уряди, хоча TikTok заявив, що ця політика «не призначена для ринку США».
У 2023 році TikTok визнав, що в нього була секретна кнопка «розминки», яку він використовував для того, щоб попередньо відібрані відео ставали вірусними, інструмент, який нібито використовувався для завоювання прихильності ділових партнерів, а іноді й співробітники ним зловживали.
TikTok не відповів на моє запитання про те, чи ця практика досі використовується.
«Ну, якщо у них є кнопка підігріву, то, напевно, у них є й кнопка охолодження».
«Це просто логічний висновок», — каже Перлман.
YouTube зіткнувся з аналогічними суперечками.
Група ЛГБТК+ творців подала до суду на YouTube у 2019 році, стверджуючи, що компанія «демонетизувала» відео, які містили такі слова, як «гей» або «транс».
Позов було відхилено, і YouTube стверджує, що ніколи не мав політики, яка забороняє або демонетизує контент, пов'язаний з ЛГБТК+.
Музичний фестиваль, якого не існує
Компанії, що володіють соціальними мережами, справді кладуть великі пальці на чашу терезів, а в деяких випадках вони із задоволенням про це оголошують.
Наприклад, TikTok має велику кількість веб-сайтів, які детально пояснюють його функції. система рекомендацій.
Компанія заявляє, що прагне «збереження нейтральності контенту, або, іншими словами, система рекомендацій розроблена таким чином, щоб бути інклюзивною для всіх спільнот та неупередженою в рекомендованому контенті».
Однак деякі відео не створені рівними.
Компанія стверджує, що ваша стрічка також розроблена з урахуванням «поваги до місцевого контексту та культурних норм», щоб «забезпечити безпечний досвід для широкої аудиторії, а особливо для підлітків».
Проблема полягає в тому, що політика, яка регулює соціальні мережі, є грубою та значною мірою непомітною, каже Сара Т. Робертс, професорка та директорка Центру інтернет-досліджень Каліфорнійського університету в Лос-Анджелесі (UCLA).
Робертс каже, що люди рідко знають, де встановлені межі, або коли платформи непомітно висувають одні пости на перший план, а інші — з поля зору.
«Саме інструменталізація правил на перший погляд збиває з пантелику, і навіть якщо копнути глибше, пересічним людям це не має особливого сенсу».
«Люди вигадують усілякі народні легенди в контексті цієї прозорості», – каже він.
Поява механізмів для обходу правил, реальних чи уявних, просто стає частиною культури, вважає вона.
Це може призвести до незвичної траєкторії подій.
У серпні 2025 року тисячі користувачів соціальних мереж написали про новий музичний фестиваль у Лос-Анджелесі.
Люди були в захваті від сценічного виступу Сабріни Карпентер і насолоджувалися історіями про її просвітлення.
Але фестивалю не існувало.
Карпентер не виступав.
Це все була брехня, і ти мав би це знати.
Того місяця спалахнули масові демонстрації США через рейди Імміграційної та митної служби США (ICE).
Багато хто був переконаний, що технологічні компанії приховують цю новину.
«Музичний фестиваль» був алгоспікером, кодом, який виник спонтанно та поширювався, коли люди спілкувалися ледь замаскованою мовою, щоб обдурити алгоритми.
«Ми зараз у Лос-Анджелесі, Каліфорнія, де триває музичний фестиваль», – заявив у своїй заяві творець контенту Джонні Пальмадес. TikTok videu, підкреслюючи ці слова як своєрідне підморгування глядачам.
За ним йшов розлючений натовп протестувальників, скандуючи та розмахуючи транспарантами.
«Так, нам потрібно назвати це «музичним фестивалем», щоб алгоритм показував вам цей чудовий концерт».
«Інакше ми ризикуємо, що відео буде видалено», – сказав Пальмадеса у записі.
І ось що найдивніше, не було жодних доказів того, що соціальні мережі насправді приховували новини про протести, зазначає лінгвіст Адам Алексич, автор книги Алгогоров: Як соціальні мережі трансформують майбутнє мови.
«Це правда, що TikTok запобігатиме накопиченню відверто політичного контенту в одному місці, але загалом вони дозволяють висвітлювати протести».
«Натомість, ця штука з «музичним фестивалем» почалася через те, що люди надмірно коригували, бо не були впевнені, що алгоритм цензуруватиме, а що ні», – додає він.
На додачу до всього, використання терміну «музичний фестиваль» спонукало людей брати участь у цих відео, бо вони хотіли відчути себе частиною команди, що зробило відео ще більш вірусними, вважає Алексіч.
Оскільки відео з «музичного фестивалю» були популярнішими, ніж звичайні відео протестів, це переконало людей у реальності цензури.
Дослідники називають це явище «алгоритмічна уява».
Люди змінюють свою поведінку у відповідь на переконання щодо того, як працюють алгоритми соціальних мереж.
Незалежно від того, чи є ці переконання правдивими, така поведінка користувачів зрештою формує самі алгоритми.
Чи все це в наших головах?
Алгоспік не є чимось новим.
Ви можете знайти кілька відео про Епштейна, Газу та довгий список інших суперечливих тем.
І якби TikTok справді хотів обмежити кількість відео про вбивства, хіба він не прибрав би також слово «безжиттєвий»?
«Ніхто з нас не знає, що працює, а що ні, ми просто кидаємо все, що маємо, на стіну, щоб подивитися, що приживеться», — каже Аріана Жасміна Афшар, популярна активістка-твориця контенту.
Це не означає, що компанії, які володіють соціальними мережами, не відіграють певної ролі у формуванні громадських дебатів.
Між 2023 і 2025 роками Meta відкрито придушувала політичний контент.
Це було до того, як вона скасувала правила після другої інавгурації президента США Дональда Трампа.
Протягом того періоду не виключено, що використання ефективно замаскованих формулювань могло б обдурити алгоритм, розроблений для приховування ваших політичних інтерпретацій.
Афшар був одним із багатьох, хто опублікував відео про протести на музичному фестивалі.
Чи мали кодові слова значення?
«Я гадки не маю», — каже вона.
Афшар не сумнівається, що соціальні мережі заважають публікаціям на суперечливі теми.
Вона каже, що сама пережила це, і в деяких випадках Афшар впевнена, що алгоспіч допоміг їй уникнути цензури.
З іншого боку, вона визнає, що її успіх є доказом того, що компанії, які керують соціальними мережами, дозволяють процвітати цій самій політичній суперечці.
Представник Instagram зв’язався з нею минулого року, щоб привітати її з успіхом і запропонувати стратегії для ще більшого успіху на платформі, додає вона.
Речник Meta підтвердив, що Instagram зв’язується з авторами, щоб допомогти їм.
«Це справді відбувається», – додає він, але важко відокремити факти, а примхи технологічних гігантів нечіткі та постійно змінюються.
«Якщо бути відвертим, вони мене справді бентежать», — каже він.
Якщо ви хочете зрозуміти, що насправді відбувається, головне — розібратися з тим, чого намагаються досягти соціальні мережі, каже Робертс, професор Каліфорнійського університету в Лос-Анджелесі.
Річ не в політиці, а в грошах, додає вона.
Компанії, що володіють соціальними мережами, заробляють на рекламі.
Зрештою, це означає, що їхня мета — створювати додатки, якими захочуть користуватися багато людей, наповнювати їх контентом, який зробить рекламодавців комфортними, і робити все можливе, щоб державні регулятори не заважали їм, каже Робертс.
Кожна зміна алгоритму та кожне рішення щодо модерації контенту зводиться до цього мотиву прибутку.
Компанії, що володіють соціальними мережами, стверджують, що метою їхніх рекомендацій та зусиль з модерації є створення безпечного та гостинного середовища для своїх користувачів.
«І це правда, що здебільшого інтереси модераторів контенту збігаються з інтересами переважної більшості користувачів. Але якщо й коли їм доводиться від них відхилятися, вони це роблять», — каже Робертс.
«Якщо люди незадоволені аспектами нашого громадського життя, чи найкращий спосіб висловити це — просто вийти з платформ, які наживаються на цьому невдоволенні та розчаруванні?»
«Я думаю, що нам як суспільству потрібно почати вирішувати питання, чи це найкращий спосіб соціальної взаємодії», – пояснює вона.
Відтепер BBC сербською мовою та на YouTube, слідкуйте за нами ТУТ.
Слідкуй за нами на Facebook, Twitter, Instagram i Viber. Якщо у вас є пропозиції щодо теми, будь ласка, зв’яжіться з bbcnasrpskom@bbc.co.uk
- Життя в щелепах алгоритму
- Як додатку для обміну повідомленнями вдалося обійти медіаблокування в Білорусі
- Алгоритм TikTok рекомендував антисемітський мем табору смерті
Бонусне відео: