Mustafin Magazine Logo
loupe

Реклама

  1. Главная
  2. arrow-right
  3. Новости
img
arrow

30.04.2025

Фото: Коллаж Mustafin Magazine

Текст: Mustafin Magazine

Как ИИ научился менять мнение людей?

Рассказываем про тайный эксперимент исследователей в Reddit

Группа исследователей из Цюрихского университета провернула секретный эксперимент с использованием ботов на базе искусственного интеллекта. Их “подопытными” оказались пользователи крупного сообщества в Reddit, которые даже не подозревали, что ими искусно манипулируют ИИ-боты, пишет 404 Media.

Что произошло?

Анонимная команда ученых внедрила десятки ИИ-ботов в сабреддит r/ChangeMyView, в котором около 3,8 млн пользователи пытаются переубедить друг друга в своих мнениях. В течение четырех месяцев эти боты оставили более 1700 комментариев в сабреддите. 

Из них 137 получили “дельты” – баллы, которые пользователи присваивают другим людям, чьи комментарии успешно изменили их мнения. Так, ИИ-боты оказались в шесть раз эффективнее в переубеждении пользователей, чем комментарии людей. Однако никто даже не понял, что они общаются с нейросетью, а не с обычным человеком.

Недавно тайный эксперимент был раскрыт в посте модераторов сабреддита. В нем они заявили, что они узнали об исследовании только после его завершения. Оказалась, что ученые сами поделились результатами своей работы в черновике статьи, которая не прошла рецензирование.

Авторы исследования

“На протяжении всего нашего вмешательства пользователи r/ChangeMyView ни разу не высказывали опасений о том, что комментарии, опубликованные нашими аккаунтами, могли быть сгенерировать ИИ”.

Как ИИ-боты манипулировали людьми?

В черновике статьи ученые рассказали, как ИИ-боты персонализировали свои комментарии под постами пользователей сабреддита. По указаниям исследователей, нейросети подробно изучали профили пользователей – угадывали их пол, возраст, этническую принадлежность и политические взгляды. 

Затем ИИ-боты притворялись людьми с различными травмами, чтобы сильнее давить на чувства пользователей и лучше манипулировать ими. Они могли прикинуться жертвой сексуального насилия, сотрудником приюта для жертв абьюзивных отношений или чернокожим человеком, критикующий движение Black Lives Matter. 

На основе этих данных и травмированных личностей ИИ-боты писали эмоциональные истории, которые вызывали доверие пользователей сабреддита. 

В чем проблема этого эксперимента?

Модераторы сабреддита отмечают, что исследователи нарушили несколько правил онлайн-сообщества. Например, они проигнорировали запрет на использование ботов и политику, требующую раскрытия информации, когда для создания комментариев используется ИИ.

В сообщениях на Reddit и в черновике своей статьи ученые заявили, что их исследование было одобрено университетским этическим комитетом. Они также утверждают, что их работа может помочь таким онлайн-сообществам защитить пользователей от более “злонамеренного” использования ИИ.

На вопросы пользователей о том, почему ученые не раскрыли свой эксперимент, они заявили, что это делалось “для этической проверки силы убеждения LLM в реалистичных сценариях”. Они утверждают, что для этого была необходима неосведомленность участников.

Чем все закончилось?

Недавно главный юрист Reddit Бен Ли заявил, что компания рассматривает возможность судебного иска против исследователей из Цюрихского университета. По его словам, они провели “ненадлежащий и крайне неэтичный эксперимент”. 

Ли также сказал, что все аккаунты, которые участвовали в эксперименте, были заблокированы. Тем временем Цюрихский университет сообщил, что исследователи решили не публиковать результаты своей работы.