Code Velocity
Изследване на ИИ

Индекс на свободното владеене на ИИ: Измерване на уменията за сътрудничество между хора и ИИ

·7 мин четене·Anthropic·Оригинален източник
Сподели
Графика, илюстрираща концепцията за свободно владеене на ИИ и сътрудничество между хора и ИИ, с данни.

Първо свободно владеене: Индексът на ИИ на Anthropic за квалифицирано сътрудничество

Бързата интеграция на ИИ инструменти в ежедневните рутинни дейности е нищо по-малко от изумителна. И все пак, тъй като ИИ става повсеместно присъствие, възниква критичен въпрос: потребителите просто ли приемат тези инструменти, или развиват необходимите умения, за да ги използват ефективно? Anthropic, лидер в отговорното разработване на ИИ, цели да отговори на това с техния новаторски Индекс за свободно владеене на ИИ, нов доклад, предназначен да измерва и проследява еволюцията на уменията за сътрудничество между хора и ИИ.

Предишни образователни доклади на Anthropic хвърлиха светлина върху това как университетски студенти и преподаватели използват напреднали модели като Claude за задачи, вариращи от генериране на доклади до планиране на уроци. Въпреки това, тези проучвания се фокусираха основно върху какво правят потребителите. Индексът за свободно владеене на ИИ навлиза по-дълбоко, изследвайки колко добре индивидите взаимодействат с ИИ, въвеждайки рамка за разбиране на "свободното владеене" на тази трансформираща технология.

Декодиране на свободното владеене на ИИ: 4D рамката

За да се определи количествено свободното владеене на ИИ, Anthropic си сътрудничи с професорите Рик Дакан и Джоузеф Фелър за разработването на 4D рамката за свободно владеене на ИИ. Тази всеобхватна рамка идентифицира 24 специфични поведения, които илюстрират безопасно и ефективно сътрудничество между хора и ИИ. За целите на това първоначално проучване Anthropic се фокусира върху 11 поведения, пряко наблюдавани в интерфейса за чат на Claude.ai. Останалите 13, които включват критични аспекти като честност относно ролята на ИИ в работата или отчитане на последствията от генерираните от ИИ резултати, се случват извън чата и ще бъдат оценени в бъдещи качествени изследвания.

Използвайки инструмент за анализ, съхраняващ поверителността, изследователският екип щателно проучи 9 830 многократно разменяни разговора в Claude.ai през 7-дневен период през януари 2026 г. Този обширен набор от данни предостави стабилна база за измерване на наличието или отсъствието на 11-те наблюдавани поведения, свързани със свободното владеене, което доведе до създаването на Индекса за свободно владеене на ИИ. Индексът предлага моментна снимка на текущите модели на сътрудничество и основа за проследяване на тяхната еволюция, докато ИИ моделите напредват.

Силата на итерацията и прецизирането във взаимодействието с ИИ

Една от най-убедителните констатации от Индекса за свободно владеене на ИИ е силната корелация между итерацията и прецизирането и почти всички други поведения, свързани със свободното владеене на ИИ. Проучването разкри, че 85.7% от разговорите включват потребители, които надграждат предишни размени, за да прецизират работата си, вместо просто да приемат първоначалния отговор. Тези итеративни разговори демонстрират значително по-високи нива на други поведения, свързани със свободното владеене, ефективно удвоявайки компетентността, наблюдавана в бързи, директни чатове.

Влиянието на итерацията върху поведенията, свързани със свободното владеене на ИИ

Поведенчески индикаторРазговори с итерация и прецизиране (n=8,424)Разговори без итерация и прецизиране (n=1,406)Коефициент на увеличение (итеративни срещу неитеративни)
Поставяне под въпрос на разсъжденията на ClaudeВисокоНиско5.6x
Идентифициране на липсващ контекстВисокоНиско4x
Изясняване на целтаВисокоСредно~2x
Посочване на форматВисокоСредно~2x
Предоставяне на примериВисокоСредно~2x
Среден брой допълнителни поведения, свързани със свободно владеене2.671.332x

Таблица: Илюстрираща повишената честота на поведения, свързани със свободното владеене, в разговори с итерация и прецизиране.

Този "ефект на итерация и прецизиране" подчертава важността на разглеждането на ИИ като партньор за мислене, а не просто като делегат на задачи. Потребителите, които активно участват в диалог, оспорвайки и прецизирайки своите заявки, са значително по-склонни критично да оценяват резултатите от ИИ, да поставят под въпрос неговите разсъждения и да идентифицират критично липсващ контекст. Това е в съответствие с концепцията за агентни работни процеси, при които човешкият надзор и итеративната обратна връзка водят до по-добри резултати, както е изследвано в дискусии около платформи като GitHub Agentic Workflows.

Двуострият меч на създаването на ИИ артефакти

Въпреки че итерацията повишава общото свободно владеене, докладът разкрива нюансиран модел, когато потребителите подканват ИИ да произвежда артефакти като код, документи или интерактивни инструменти. Тези разговори, представляващи 12.3% от извадката, показват, че потребителите стават по- директивни, но изненадващо по-малко критични.

При създаването на артефакти, потребителите са били по-склонни да изясняват своите цели (+14.7 процентни пункта), да посочват формати (+14.5 п.п.) и да предоставят примери (+13.4 п.п.). Въпреки това, тази повишена директивност не се превръща в по-голяма проницателност. Всъщност, потребителите са били значително по-малко склонни да идентифицират липсващ контекст (-5.2 п.п.), да проверяват факти (-3.7 п.п.) или да поставят под въпрос разсъжденията на модела (-3.1 п.п.). Тази тенденция е особено тревожна, като се има предвид, че сложните задачи, често свързани със създаването на артефакти, са местата, където ИИ модели като Claude Opus 4.6 или дори напреднали модели като GPT-5 (ако съществуваше, въпреки че връзката сочи към бъдеща или хипотетична версия) е най-вероятно да срещнат трудности.

Този феномен може да се дължи на изчистените, функционално изглеждащи резултати, които ИИ често генерира, което може да заблуди потребителите във фалшиво чувство за завършеност. Независимо дали става въпрос за проектиране на потребителски интерфейс или изготвяне на правен анализ, способността за критично изследване на резултатите от ИИ остава от първостепенно значение. С усъвършенстването на ИИ моделите, рискът от безкритично приемане на привидно перфектни резултати нараства, което прави уменията за оценка по-ценни от всякога.

Развиване на вашето собствено свободно владеене на ИИ

Добрата новина е, че свободното владеене на ИИ, като всяко умение, може да бъде развито. Въз основа на своите констатации, Anthropic предлага практически съвети за потребителите, които искат да подобрят сътрудничеството си между хора и ИИ:

  1. Оставане в разговора: Приемайте първоначалните отговори на ИИ като отправна точка. Включете се в последващи въпроси, оспорвайте допускания и итеративно прецизирайте своите заявки. Тази активна ангажираност е най-силният предсказател за други поведения, свързани със свободното владеене.
  2. Поставяне под въпрос на изгладени резултати: Когато ИИ модел произведе нещо, което изглежда пълно и точно, спрете и приложете критично мислене. Запитайте се: Наистина ли е точно това? Липсва ли нещо? Устояват ли разсъжденията? Не позволявайте визуалната изпипаност да надделее над критичната оценка.
  3. Определяне на условията за сътрудничество: Проактивно дефинирайте как искате ИИ да взаимодейства с вас. Изрични инструкции като "Оспорвай ме, ако моите допускания са грешни", "Разкажи ми за своите разсъждения" или "Кажи ми в какво не си сигурен" могат фундаментално да променят динамиката, насърчавайки по-прозрачно и стабилно сътрудничество.

Базова линия за бъдещо развитие на умения за ИИ

Важно е да се признаят ограниченията на това първоначално проучване. Извадката, включваща потребители на Claude.ai, използващи многократно разменяни разговори от началото на 2026 г., вероятно се състои предимно от ранни осиновители, които вече са свикнали с ИИ, а не от по-широкото население. Проучването също така се фокусира единствено върху наблюдавани поведения в чат интерфейса, като пропуска критични етични и отговорни поведения на използване, които се случват външно. Тези уговорки означават, че Индексът за свободно владеене на ИИ предоставя базова линия за това конкретно население и отправна точка за по-дълбоки, надлъжни изследвания.

Въпреки тези ограничения, Индексът за свободно владеене на ИИ бележи значителна стъпка към разбирането и насърчаването на ефективно сътрудничество между хора и ИИ. Тъй като ИИ инструментите продължават да се развиват, предоставянето на потребителите на умения за критично, итеративно и отговорно ангажиране ще бъде от централно значение за реализирането на пълния потенциал на тази технология, като същевременно се намаляват нейните рискове. Този първоначален доклад поставя основите за бъдещи изследвания, обещавайки да насочва както потребителите, така и разработчиците в изграждането на по-свободно и полезно бъдеще, задвижвано от ИИ.

Оригинален източник

https://www.anthropic.com/research/AI-fluency-index

Често задавани въпроси

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели