
Исследование показало, что использование продвинутых языковых моделей, таких как GPT-4 Turbo, может уменьшить доверие к теориям заговора примерно на 20%.
В эксперименте приняли участие 2190 человек. Они вели текстовые дискуссии о теориях заговора с чат-ботом, обученным предоставлять убедительные аргументы против каждой из этих теорий. После общения с ИИ участники сообщили о значительном снижении доверия к таким теориям.
Кроме того, исследование подтвердило точность ответов чат-бота на уровне 99,2%, что говорит о надёжности искусственного интеллекта. Результаты эксперимента демонстрируют потенциал использования чат-ботов с искусственным интеллектом для обсуждения сложных и неоднозначных тем. Они могут эффективно опровергать ложную информацию и стимулировать критическое мышление.