Расследования
Репортажи
Аналитика
RADIOInsider

USD

75.22

EUR

88.06

OIL

97.22

Поддержите нас

1737

 

 

 

 

 

Новости

Интернет-сообщества превращаются в «эхо-камеры» не из-за алгоритмов ленты, а из-за того, что несогласные просто уходят из них — исследование

Изображение сгенерировано ChatGPT

Изображение сгенерировано ChatGPT

Исследователь из Амстердамского университета Петтер Тернберг выяснил, почему в интернет-сообществах со временем остаются только те, кто думает одинаково, а несогласные куда-то исчезают, в результате чего дискуссия становится всё более однородной, а сообщество — всё более радикальным. Принято считать, что в таком «эффекте эхо-камеры» виноваты алгоритмы соцсетей, которые подсовывают людям близкий по духу контент, или сами пользователи, намеренно ищущие единомышленников. Но Тернберг в своем исследовании показал, что ни то, ни другое не обязательно — сообщества поляризуются сами по себе, в силу простой механики уходов.

Тернберг построил компьютерную модель, в которой участники с разными взглядами распределены по условным онлайн-сообществам — как по комнатам. Время от времени каждый участник «смотрит по сторонам» — случайным образом сталкивается с несколькими соседями по комнате. Если среди них слишком мало людей со схожими взглядами, участник уходит — просто в случайную другую, а не в ту, которую он оценил как «лучшую». В процессе не задействованы алгоритмы, не выполняется целенаправленный поиск «своих».

Порог терпимости пользователей оказался чрезвычайно низким. Достаточно, чтобы среди случайной выборки собеседников хотя бы один из десяти разделял его взгляды — и человек остается. Но как только даже это минимальное условие перестает выполняться, он уходит, после чего начинается цепная реакция. Уход одного человека чуть сдвигает баланс в сообществе — теперь следующему участнику становится чуть некомфортнее, он тоже уходит, и баланс сдвигается еще больше. Через краткое время смешанное сообщество превращается в однородное.

Интересно, что алгоритмическая персонализация показа контента — то, что принято считать главным виновником образования «эхо-камер», — в этой модели при умеренном использовании поляризацию снижает. Если алгоритм чуть чаще показывает человеку близкий по духу контент, тот реже чувствует себя в меньшинстве и не спешит уходить — таким образом смешанные сообщества живут дольше. А обратная стратегия — намеренное «сталкивание» людей с противоположными взглядами ради борьбы с поляризацией — дает обратный эффект и ускоряет распад сообщества.

Чтобы проверить, работает ли этот механизм в реальности, Тернберг изучил архив комментариев субреддита r/MensRights за 2008–2015 годы. Этот форум начинался как относительно разнообразное пространство для обсуждения «мужских вопросов», а к середине 2010-х превратился в один из центров «маносферы» с жесткой внутренней идеологией. Анализ показал, что пользователи, чьи тексты всё сильнее расходились с общим тоном сообщества, на 16–18% чаще покидали форум в последующие месяцы. Это не доказывает причинно-следственную связь, но хорошо вписывается в логику модели.

Тернберг делает вывод, что образование «эхо-камер» не обязательно чья-то вина и не обязательно результат сознательного выбора. Они могут возникать как побочный эффект самой структуры онлайн-пространства, из которого люди вольны уходить, когда чувствуют себя чужими. Таким образом, простые рецепты, вроде «отключить алгоритмы» или «показывать людям больше несогласных», могут не только не помочь, но и навредить.

Нам очень нужна ваша помощь

Подпишитесь на регулярные пожертвования

Подпишитесь на нашу еженедельную Email-рассылку