Недоверие к людям может быть индикатором веры в способности ИИ

Иллюстративная фотография.
Иллюстративная фотография. Автор: pixabay.com

Согласно недавно опубликованному исследованию, недоверие человека к другим людям может быть индикатором того, что он будет больше доверять способности искусственного интеллекта модерировать онлайн-контент. Вероятно это связано с уверенностью в том, что машины точны, объективны и свободны от идеологических предубеждений.

Исследование, опубликованное в журнале New Media & Society, также показало, что "продвинутые пользователи", которые имеют опыт использования информационных технологий, часто имеют противоположное мнение. Они меньше доверяют модерации ИИ, потому что считают, что машинам не хватает способности выявлять нюансы человеческого языка.

Исследование показало, что индивидуальные различия, такие как недоверие к другим и уровень владения технологией, предсказывают, будут ли пользователи ссылаться на положительные или отрицательные характеристики машин при столкновении с системой на основе ИИ для модерации контента. В конечном итоге это повлияет и на их доверие к системе. Ученые предполагают, что персонализация интерфейсов на основе индивидуальных различий может положительно повлиять на восприятие пользователей. 

В рамках исследования рассматривалась, в том числе модерация сообщений в социальных сетях для выявления проблемного контента, такого как разжигание ненависти и суицидальные мысли.

"Одна из причин, по которой некоторые могут не доверять технологии модерации контента, заключается в том, что мы привыкли свободно выражать свое мнение в интернете. Мы чувствуем, что модерация может лишить нас этого, — утверждает Мария Д. Молина, доцент кафедры коммуникативных искусств и наук Мичиганского государственного университета и первый автор статьи. — Это исследование может предложить решение данной проблемы, предполагая, что для людей, придерживающихся негативных стереотипов об ИИ для модерации контента, важно увеличить участие человека при принятии решения. С другой стороны, для людей с положительными стереотипами о машинах мы можем повышать силу машины, подчеркивая такие элементы, как точность ИИ".

Исследование также показало, что пользователи с консервативной политической идеологией с большей вероятностью доверяют модерации с помощью ИИ. Молина и соавтор профессор Пенсильванского университета С. Шьям Сундар, который также является соруководителем Исследовательской лаборатории медиаэффектов Пенсильванского университета, считают, что это может быть связано с недоверием к основным СМИ и компаниям, работающим в социальных сетях.

В самом исследовании приняли участие 676 человек из США. Им сообщили, что они помогают тестировать систему модерации контента, которая находится в разработке. Участникам были даны определения разжигания ненависти и суицидальных мыслей, после чего последовала одна из четырех различных публикаций в социальных сетях. Посты были либо помечены как соответствующие этим определениям, либо не помечены. Участникам также сообщалось, было ли решение пометить пост принято ИИ, человеком или совместно.

За демонстрацией последовала анкета, в которой участников спрашивали об их индивидуальных различиях. Например, о склонности не доверять другим, политических взглядах, опыте работы с технологиями и доверии к ИИ.

"Нас засыпают огромным количеством проблемного контента, от дезинформации до разжигания ненависти, — говорит Молина. — Но, в конце концов, речь идет о том, как мы можем помочь пользователям определить свой уровень доверия к ИИ из-за фактических характеристик технологии, а не из-за этих персональных различий".

Молина и Сундар говорят, что их результаты могут помочь определить принятие ИИ в будущем. Создавая системы, адаптированные к пользователю, дизайнеры могли бы уменьшить скептицизм и недоверие и заложить здоровую уверенность в ИИ.

По словам Сундара, определенные группы людей, которые слишком сильно верят в технологию ИИ, должны быть предупреждены о ее ограничениях, а те, кто не верит в ее способность модерировать контент, должны быть полностью информированы о степени участия человека в этом процессе.

Редактор: Илья Дочар

Источник: Университет штата Пенсильвания

Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: