Расследования
Репортажи
Аналитика
  • USD76.47
  • EUR90.32
  • OIL70.97
Поддержите нас English
  • 496
Новости

Чем дольше человек общается с ИИ в одном чате, тем критичнее оценивает его ответы — исследование Anthropic

Фото: Shutterstock/PhotoGranary02

Компания Anthropic выяснила, что люди, которые не принимают первый ответ ИИ за окончательный и продолжают диалог, используют технологию вдвое эффективнее тех, кто ограничивается одним запросом.

Такой вывод содержится в новом докладе Anthropic об индексе «ИИ-грамотности», опубликованном 23 февраля. Исследователи проанализировали почти 10 тысяч анонимизированных разговоров с чат-ботом Claude за семь дней в январе 2026 года и оценили 11 поведенческих паттернов, которые они считают признаками эффективного взаимодействия с ИИ.

Главный вывод: в 85,7% бесед пользователи не ограничивались первым ответом, а продолжали диалог — и именно такие разговоры демонстрировали в среднем 2,67 дополнительных «грамотных» паттерна против 1,33 в случае, когда пользователь ограничивался одним обменом репликами. Те, кто задавал уточняющие вопросы, в 5,6 раза чаще ставили под сомнение аргументацию ИИ и в четыре раза чаще замечали пробелы в его ответах.

Исследование зафиксировало и тревожную закономерность. Когда Claude создавал готовые «артефакты» — код, документы или интерактивные инструменты (12,3% разговоров в выборке), — пользователи становились более конкретными в инструкциях, но хуже проверяли результат. Вероятность того, что они заметят пропущенный контекст в «артефакте», снижалась на 5,2 процентных пункта, а склонность проверять факты — на 3,7 пункта. Исследователи объясняют это «ловушкой полированного результата»: если код работает или документ выглядит готовым, пользователь склонен считать задачу выполненной, не задавая лишних вопросов.

На основе полученных данных Anthropic сформулировала три практические рекомендации: не останавливаться на первом ответе ИИ, критически проверять внешне завершенные результаты и явно оговаривать формат взаимодействия — например, попросить ИИ указывать на слабые места в своих ответах или объяснять ход рассуждений.

Ранее Anthropic опубликовала детальный отчет о рисках саботажа со стороны своей самой мощной модели, признав, что вероятность катастрофических последствий от таких действий остается «очень низкой, но не незначительной». Согласно отчету, недавно выпущенная большая языковая модель Anthropic Claude Opus 4.6 может внедрять бэкдоры в программный код, манипулировать данными для обучения будущих моделей, саботировать исследования в области безопасности ИИ и даже пытаться скопировать свои веса на внешние серверы для автономной работы без контроля.

Подпишитесь на нашу рассылку

К сожалению, браузер, которым вы пользуйтесь, устарел и не позволяет корректно отображать сайт. Пожалуйста, установите любой из современных браузеров, например:

Google Chrome Firefox Safari