Люди не доверяют написанным искусственным интеллектом новостям

Контент, созданный искусственным интеллектом, неизбежно распространяется в интернете. В качестве меры контроля, компании, занимающиеся социальными сетями, начали расставлять соответствующие маркеры, чтобы публика точно знала, когда имеет дело с текстом, которого, образно говоря, не касалась рука человека. Как выяснилось, эти отметки существенно влияют на восприятие текстов.
Саша Алтай и Фабрицио Джиларди провели два эксперимента, в рамках которых 4976 участников из США и Великобритании взаимодействовали с новостными материалами. Основной целью было оценить влияние маркировки "создано ИИ".
В ходе первого эксперимента участники были случайным образом распределены по группам. Первая получила новости, которые не были помечены. Вторая ознакомилась с материалами, созданными нейросетью. Эти тексты имели отметку свидетельствующие об их происхождении. У третьей группы были новости, созданные человеком, но выдаваемые за написанные ИИ. Оставшиеся участники эксперимента читали тексты с ярлыком "фейк". Всего респонденты оценили 16 новостей, которые были разделены по двум признакам: правдивость и авторство.
Оказалось, что новости, помеченные как созданные искусственным интеллектом, воспринимались как менее точные и люди с меньшей готовностью ими делились. Этот эффект наблюдался независимо от того, был ли текст правдивым или ложным. Также не имело значения, кто на самом деле писал новость. При этом эффект этих ярлыков все же оказался в три раза менее значительным, чем в случае с отметкой "фейк".
Иными словами, люди не могут отличить авторский текст от сгенерированного машиной, однако последний вызывает существенно меньше доверия. Впрочем, если в случае с ИИ у читателей возникают некоторые сомнения в фактологической точности, то ярлык "фейк" кардинальным образом подрывает интерес к тексту.
Авторы также исследовали механизмы, лежащие в основе такого неприятия ИИ, экспериментально манипулируя формулировками сгенерированных искусственным интеллектом заголовков. Выяснилось, что негативное восприятие связано с ожиданием того, что написанный машиной текст не проходил контроль со стороны человека.
Это говорит о том, что эффективное использование ярлыков потребует прозрачности их значения и к нему следует подходить осторожно, чтобы избежать негативных последствий. В целом же, исследователи оценивают влияние таких меток как небольшое. Чтобы максимизировать их эффективность созданный ИИ ложный контент следует помечать именно как фейк, а не подчеркивать его происхождение.
Как пишут авторы, в более широком смысле, воздействие ярлыков может работать как своего рода предупреждение о том, что онлайн-среда переполнена контентом, созданным ИИ, и не является надежным пространством для получения достоверной информации.
Однако и такой подход имеет свои риски. С одной стороны, это может служить важным напоминанием в информационных экосистемах низкого качества, где к информации следует относиться скептически. С другой — это также создает риск развития неоправданного скептицизма во всех прочих средах.
Исследование опубликовано в журнале PNAS Nexus.
Редактор: Илья Дочар
Источник: PNAS Nexus