Будь то представление о том, что высадки на Луну никогда не было, или утверждение, что вакцины от Covid содержат микрочипы, теорий заговора предостаточно, иногда с опасными последствиями, пишет The Guardian.
Теперь исследователи обнаружили, что такие убеждения можно изменить, пообщавшись с искусственным интеллектом (ИИ).
“Здравый смысл подскажет вам, что люди, которые верят в теории заговора, редко, если вообще когда-либо, меняют свое мнение, особенно в соответствии с доказательствами”, - сказал доктор Томас Костелло, соавтор исследования из Американского университета.
Считается, что это связано с тем, что люди принимают такие убеждения для удовлетворения различных потребностей, таких как стремление к контролю. Однако новое исследование предлагает иную позицию.
“Наши результаты в корне опровергают мнение, что доказательства и аргументы бесполезны, когда кто-то ”забрался в кроличью нору" и начинает верить в теорию заговора", - написала команда ученых.
По словам исследователей, этот подход основан на системе искусственного интеллекта, которая может использовать огромный массив информации для создания диалогов, способствующих критическому мышлению и предоставляющих индивидуальные контраргументы, основанные на фактах.
“Искусственный интеллект заранее знал, во что верит человек, и благодаря этому смог адаптировать свои убеждения к его точной системе убеждений”, - поясняет Костелло.
В статье, опубликованной в журнале Science, доктор Костелло и его коллеги рассказали, как они провели серию экспериментов с участием 2190 участников, которые верили в теории заговора.
Хотя эксперименты немного отличались друг от друга, всех участников попросили описать конкретную теорию заговора, в которую они верили, и доказательства, которые, по их мнению, подтверждали ее. Затем эти данные были введены в систему искусственного интеллекта под названием DebunkBot.
Участников также попросили оценить по 100-балльной шкале, насколько, по их мнению, верна теория заговора.
Затем исследователи сознательно провели трехстороннюю беседу с системой искусственного интеллекта о своей теории заговора или на другие темы, не связанные с заговором. После этого участники еще раз оценили, насколько верной, по их мнению, была теория заговора.
Результаты показали, что те, кто обсуждал темы, не связанные с конспирологией, лишь незначительно снизили свой рейтинг “правдивости”. Однако те, кто обсуждал свою теорию заговора с ИИ, показали, что в среднем их вера в ее истинность снизилась на 20%.
Команда заявила, что эффект, по-видимому, сохранялся в течение как минимум двух месяцев, в то время как подход работал практически для всех типов теорий заговора, хотя и не для тех, которые соответствовали действительности.
Исследователи добавили, что величина эффекта зависела от таких факторов, как важность убеждения для участников и их доверие ИИ.
“Примерно каждый четвертый человек, начавший эксперимент с веры в теорию заговора, в конце концов отказался от этой веры”, - сказал Костелло.
“В большинстве случаев ИИ может только откалывать данные, что делает людей немного более скептичными и неуверенными, но немногие избранные полностью разуверились в своем заговоре”.
Исследователи добавили, что снижение веры в одну теорию заговора, по-видимому, приводит к снижению веры участников в другие подобные идеи, по крайней мере в небольшой степени, в то время как этот подход может найти применение в реальном мире - например, искусственный интеллект может отвечать на сообщения, связанные с теориями заговора, в социальных сетях.
Профессор Сандер ван дер Линден из Кембриджского университета, который не принимал участия в работе, усомнился, будут ли люди добровольно взаимодействовать с таким ИИ в реальном мире.
Он также сказал, что неясно, были бы получены аналогичные результаты, если бы участники общались с анонимным человеком, в то время как есть вопросы о том, как ИИ убеждал сторонников заговора, учитывая, что система также использует такие стратегии, как эмпатия и подтверждение.
Но, добавил он, “в целом это действительно новое и потенциально важное открытие и прекрасная иллюстрация того, как ИИ можно использовать для борьбы с дезинформацией”.