Изучение новых тем с помощью чат-ботов на базе искусственного интеллекта, таких как ChatGPT, может давать более поверхностные знания, чем традиционный поиск информации в интернете. К такому выводу пришли исследователи из Университета Пенсильвании (США), чья работа опубликована в журнале PNAS Nexus.
Авторы исследования — Шири Мелумад и Джин Хо Юн — провели семь экспериментов с участием тысяч добровольцев. Участников случайным образом распределяли на группы: одни изучали темы вроде организации огорода, ведения здорового образа жизни или защиты от финансового мошенничества с помощью больших языковых моделей (LLM), другие — через традиционные результаты поиска Google.
После этого участники должны были написать советы по выбранной теме, выступив в роли экспертов.
Как показало исследование, пользователи ИИ-моделей тратили меньше времени на взаимодействие с материалом и сами отмечали, что их знания — менее глубокие. При этом созданные ими тексты были короче, содержали меньше фактических ссылок и отличались меньшей оригинальностью, демонстрируя схожесть между ответами разных участников.
Независимая оценка 1501 респондента показала, что советы, основанные на знаниях, полученных с помощью LLM, воспринимались как менее полезные, менее информативные и менее достоверные. Оценивающие были также менее склонны доверять авторам таких советов.
Исследователи отмечают, что, несмотря на эффективность ИИ, зависимость от заранее синтезированных ответов превращает процесс обучения из активного поиска в пассивное восприятие. По их мнению, большие языковые модели могут быть менее полезны, когда цель — развить практическое понимание и научиться действовать самостоятельно.
