Code Velocity
Исследования ИИ

Индекс владения ИИ: Измерение навыков сотрудничества человека и ИИ

·7 мин чтения·Anthropic·Первоисточник
Поделиться
Графика, иллюстрирующая концепцию владения ИИ и сотрудничества человека и ИИ, с данными.

Владение прежде всего: Индекс ИИ от Anthropic для квалифицированного сотрудничества

Быстрая интеграция инструментов ИИ в повседневную жизнь оказалась поистине поразительной. Однако, по мере того как ИИ становится повсеместным явлением, возникает критический вопрос: пользователи просто адаптируются к этим инструментам, или они развивают необходимые навыки для их эффективного использования? Anthropic, лидер в области ответственной разработки ИИ, стремится ответить на этот вопрос с помощью своего новаторского Индекса владения ИИ — нового отчета, предназначенного для измерения и отслеживания эволюции навыков сотрудничества человека и ИИ.

Предыдущие образовательные отчеты Anthropic проливали свет на то, как студенты университетов и преподаватели используют передовые модели, такие как Claude, для выполнения задач, начиная от генерации отчетов и заканчивая планированием уроков. Однако эти исследования в основном фокусировались на том, что делали пользователи. Индекс владения ИИ углубляется, исследуя насколько хорошо люди взаимодействуют с ИИ, представляя основу для понимания "владения" этой преобразующей технологией.

Расшифровка владения ИИ: Четырехмерная концепция

Чтобы количественно оценить владение ИИ, Anthropic сотрудничала с профессорами Риком Даканом и Джозефом Феллером для разработки Четырехмерной концепции владения ИИ. Эта всеобъемлющая концепция определяет 24 конкретных поведенческих модели, которые иллюстрируют безопасное и эффективное сотрудничество человека и ИИ. Для целей этого первоначального исследования Anthropic сосредоточилась на 11 моделях поведения, непосредственно наблюдаемых в интерфейсе чата Claude.ai. Остальные 13, которые включают такие критически важные аспекты, как честность в отношении роли ИИ в работе или учет последствий сгенерированного ИИ результата, происходят вне чата и будут оценены в будущих качественных исследованиях.

Используя инструмент анализа с сохранением конфиденциальности, исследовательская группа тщательно изучила 9 830 многоходовых диалогов на Claude.ai в течение 7-дневного периода в январе 2026 года. Этот обширный набор данных обеспечил надежную базу для измерения наличия или отсутствия 11 наблюдаемых поведенческих моделей владения, что привело к созданию Индекса владения ИИ. Индекс предлагает моментальный снимок текущих паттернов сотрудничества и основу для отслеживания их эволюции по мере развития моделей ИИ.

Сила итерации и доработки во взаимодействии с ИИ

Одним из наиболее убедительных результатов Индекса владения ИИ является сильная корреляция между итерацией и доработкой и почти всеми другими поведенческими моделями владения ИИ. Исследование показало, что в 85,7% диалогов пользователи основывались на предыдущих обменах, чтобы доработать свою работу, а не просто принимать первоначальный ответ. Эти итеративные диалоги продемонстрировали значительно более высокие показатели других поведенческих моделей владения, фактически удвоив компетентность, наблюдаемую в быстрых, двусторонних чатах.

Влияние итерации на поведенческие модели владения ИИ

Поведенческий индикаторДиалоги с итерацией и доработкой (n=8,424)Диалоги без итерации и доработки (n=1,406)Фактор увеличения (итеративные против неитеративных)
Постановка под сомнение обоснования ClaudeВысокийНизкий5.6x
Выявление отсутствующего контекстаВысокийНизкий4x
Уточнение целиВысокийСредний~2x
Уточнение форматаВысокийСредний~2x
Предоставление примеровВысокийСредний~2x
Среднее количество дополнительных поведенческих моделей владения2.671.332x

Таблица: Иллюстрация повышенной распространенности поведенческих моделей владения в диалогах с итерацией и доработкой.

Этот 'эффект итерации и доработки' подчеркивает важность отношения к ИИ как к партнеру по мышлению, а не просто как к делегату задач. Пользователи, которые активно участвуют в диалоге, оспаривая и уточняя свои запросы, значительно чаще критически оценивают результаты ИИ, ставят под сомнение его обоснование и выявляют важный отсутствующий контекст. Это согласуется с концепцией агентных рабочих процессов, где человеческий надзор и итеративная обратная связь приводят к лучшим результатам, как это обсуждалось в дискуссиях вокруг таких платформ, как Агентные рабочие процессы GitHub.

Двугранный меч создания артефактов ИИ

Хотя итерация повышает общее владение, отчет выявил тонкую закономерность, когда пользователи побуждают ИИ создавать артефакты, такие как код, документы или интерактивные инструменты. В этих диалогах, составляющих 12.3% выборки, пользователи становились более директивными, но, что удивительно, менее критичными.

При создании артефактов пользователи чаще уточняли свои цели (+14,7 процентных пункта), указывали форматы (+14,5 п.п.) и предоставляли примеры (+13,4 п.п.). Однако эта возросшая директивность не привела к большей проницательности. Фактически, пользователи заметно реже выявляли отсутствующий контекст (-5,2 п.п.), проверяли факты (-3,7 п.п.) или ставили под сомнение обоснование модели (-3,1 п.п.). Эта тенденция вызывает особую озабоченность, учитывая, что сложные задачи, часто связанные с созданием артефактов, являются теми областями, где модели ИИ, такие как Claude Opus 4.6 или даже продвинутые модели, такие как GPT-5 (если бы они существовали в реальном мире, хотя ссылка указывает на будущую или гипотетическую версию), наиболее вероятно столкнутся с трудностями.

Это явление можно объяснить отполированными, функционально выглядящими результатами, которые часто генерирует ИИ, что может убаюкивать пользователей ложным чувством завершенности. Будь то разработка пользовательского интерфейса или составление юридического анализа, способность критически оценивать результаты ИИ остается первостепенной. По мере того как модели ИИ становятся все более сложными, риск некритического принятия кажущихся идеальными результатов возрастает, делая навыки оценки более ценными, чем когда-либо.

Развитие собственного владения ИИ

Хорошая новость заключается в том, что владение ИИ, как и любой навык, можно развивать. Основываясь на своих выводах, Anthropic предлагает практические советы для пользователей, стремящихся улучшить свое сотрудничество человека и ИИ:

  1. Оставаться в диалоге: Воспринимайте первоначальные ответы ИИ как отправную точку. Задавайте уточняющие вопросы, оспаривайте предположения и итеративно дорабатывайте свои запросы. Это активное участие является самым сильным предиктором других поведенческих моделей владения.
  2. Ставить под сомнение отполированные результаты: Когда модель ИИ выдает что-то, что выглядит завершенным и точным, остановитесь и примените критическое мышление. Спросите: Действительно ли это точно? Не упущено ли что-то? Выдерживает ли обоснование проверку? Не позволяйте визуальной отполированности перевешивать критическую оценку.
  3. Определение условий сотрудничества: Заранее определите, как вы хотите, чтобы ИИ взаимодействовал с вами. Четкие инструкции, такие как 'Оспорь, если мои предположения ошибочны', 'Объясни мне свое обоснование' или 'Скажи мне, в чем ты не уверен', могут фундаментально изменить динамику, способствуя более прозрачному и надежному сотрудничеству.

Отправная точка для будущего развития навыков ИИ

Важно признать ограничения этого первоначального исследования. Выборка, состоящая из пользователей Claude.ai, участвовавших в многоходовых диалогах в начале 2026 года, вероятно, смещена в сторону ранних последователей, уже освоившихся с ИИ, а не более широкой популяции. Исследование также фокусируется исключительно на наблюдаемых поведенческих моделях внутри интерфейса чата, оставляя за рамками важнейшие этические и ответственные модели использования, которые происходят вне его. Эти оговорки означают, что Индекс владения ИИ предоставляет базовую оценку для этой конкретной популяции и отправную точку для более глубоких, лонгитюдных исследований.

Несмотря на эти ограничения, Индекс владения ИИ знаменует собой значительный шаг к пониманию и развитию эффективного сотрудничества человека и ИИ. По мере того как инструменты ИИ продолжают развиваться, наделение пользователей навыками критического, итеративного и ответственного взаимодействия будет иметь центральное значение для реализации всего потенциала этой технологии при одновременном снижении ее рисков. Этот первоначальный отчет закладывает основу для будущих исследований, обещая направить как пользователей, так и разработчиков в создании более компетентного и полезного будущего, основанного на ИИ.

Часто задаваемые вопросы

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Будьте в курсе

Получайте последние новости ИИ на почту.

Поделиться