Алгоритмы соцсетей знают, как дать нам вызывающую доверие информацию
Интернет быстро изменил мир, но наш мозг за этими переменами не успевает. Мы по-прежнему строим социальные отношения, полагаясь на сформировавшиеся за миллионы лет принципы. В свежем обзоре социальные психологи описывают, как алгоритмы соцсетей не согласуются с нашими инстинктами, что может приводить к распространению дезинформации и поляризации общества.
В доисторических обществах люди, как правило, учились у членов своей группы или у более авторитетных представителей сообщества, поскольку полученная от них информация с большей вероятностью была надежной. Однако с появлением разнообразных и сложных современных сообществ — особенно в социальных сетях — предположения о надежности могут быть обманчивыми. Например, человек, с которым мы общаемся в интернете, может "симулировать" престиж и авторитетность, но на деле не обязательно заслуживает доверия.
По словам первого автора исследования, социального психолога Уильяма Брэди, несколько опросов, проведенных в Twitter и Facebook, показали, что многие пользователи недовольны предлагаемым им политическим контентом. И особенно это видно в преддверии выборов.
"Мы хотели опубликовать систематический обзор, который поможет понять, как взаимодействие алгоритмов и человеческой психологии приводит к таким последствиям, — говорит Брейди. — Одна из вещей, которую предлагает этот обзор, — это перспектива социального обучения. Как социальные психологи, мы постоянно изучаем, как мы можем учиться у других. Это принципиально важно, если мы хотим понять, как алгоритмы влияют на наши социальные взаимодействия".
Люди склонны учиться у других таким образом, который обычно способствует сотрудничеству и коллективному решению проблем. Поэтому обычно мы учимся у тех, кого считаем частью своей группы или тех, кто имеет хорошую репутацию. Кроме того, когда принципы обучения только зарождались, морально и эмоционально заряженная информация была важна для расстановки приоритетов, поскольку она с большей вероятностью обеспечивала соблюдение групповых норм и коллективное выживание.
Алгоритмы же используют эмоционально вовлекающую информацию не для этого, а чтобы увеличить доход от рекламы. То есть, они могут перенасыщать каналы социальных сетей тем, что исследователи называют престижной, внутригрупповой, моральной и эмоциональной (PRIME) информацией, независимо от точности содержания или представленности разных мнений. В результате экстремального политического контента или спорных тем будет больше, и если пользователи не будут сталкиваться с противоположными позициями, у них могут сформироваться ложные представления о происходящем.
"Дело не в том, что алгоритм предназначен для нарушения сотрудничества, — говорит Брейди. — Просто у него другие цели".
Чтобы решить эту проблему, исследовательская группа предлагает давать пользователям социальных сетей больше информации о том, как работают алгоритмы и почему определенный контент появляется в их ленте. Сами социальные сети обычно не раскрывают полную информацию о работе своих алгоритмов, но они могли бы предлагать объяснения того, почему пользователю показывается конкретный пост. Например, из-за того, что его друзья взаимодействуют с контентом или из-за того, что он в целом популярен? Исследовательская группа разрабатывает свои собственные меры, чтобы научить людей быть более сознательными потребителями социальных сетей.
Ученые предполагают, что социальные сети могли бы предпринять шаги по изменению своих алгоритмов, чтобы они более эффективно способствовали развитию сообществ. Вместо того чтобы отдавать предпочтение исключительно информации PRIME, алгоритмы могли бы ограничить ее распространение в пользу разнообразного контента. Эти изменения могли бы и впредь усиливать привлекательность информации, не допуская чрезмерной представленности более поляризующих или политически экстремальных постов в лентах.
Обзор был опубликован в журнале Trends in Cognitive Science.
Редактор: Юлия Тислер