Code Velocity
Истражување на вештачка интелигенција

Индекс на флуентност со вештачка интелигенција: Мерење на вештините за соработка човек-АИ

·7 мин читање·Anthropic·Оригинален извор
Сподели
Графика што го илустрира концептот на флуентност со вештачка интелигенција и соработка човек-АИ, со податочни точки.

Флуентноста на прво место: Индекс на АИ на Anthropic за вешта соработка

Брзата интеграција на алатките за вештачка интелигенција во секојдневните рутини е нешто помалку од зачудувачки. Сепак, како што вештачката интелигенција станува сеприсутна, се појавува клучно прашање: дали корисниците само ги усвојуваат овие алатки, или развиваат неопходни вештини за ефикасно да ги искористат? Anthropic, лидер во развојот на одговорна АИ, има за цел да одговори на ова со нивниот револуционерен Индекс на флуентност со АИ, нов извештај дизајниран да ги мери и следи еволуцијата на вештините за соработка човек-АИ.

Претходните Образовни извештаи на Anthropic фрлија светлина на тоа како студентите и едукаторите користат напредни модели како Claude за задачи кои се движат од генерирање извештаи до планирање лекции. Сепак, овие студии првенствено се фокусираа на што правеле корисниците. Индексот на флуентност со АИ навлегува подлабоко, истражувајќи колку добро поединците се ангажираат со АИ, воведувајќи рамка за разбирање на „флуентноста“ со оваа трансформативна технологија.

Декодирање на флуентноста со АИ: 4Д рамката

За да ја квантифицира флуентноста со АИ, Anthropic соработуваше со професорите Рик Дакан и Џозеф Фелер за да ја развие 4Д рамката за флуентност со АИ. Оваа сеопфатна рамка идентификува 24 специфични однесувања кои го илустрираат безбедното и ефективно соработка човек-АИ. За целите на оваа првична студија, Anthropic се фокусираше на 11 однесувања директно забележливи во рамките на интерфејсот за разговор на Claude.ai. Преостанатите 13, кои вклучуваат критични аспекти како што се искреност за улогата на АИ во работата или разгледување на последиците од излезот генериран од АИ, се случуваат надвор од разговорот и ќе бидат проценети во идни квалитативни истражувања.

Користејќи алатка за анализа што ја чува приватноста, истражувачкиот тим детално проучи 9.830 повеќекратни разговори на Claude.ai во текот на 7-дневен период во јануари 2026 година. Овој обемен сет на податоци обезбеди робустна основа за мерење на присуството или отсуството на 11 забележливи однесувања на флуентност, што доведе до создавање на Индексот на флуентност со АИ. Индексот нуди преглед на тековните обрасци на соработка и основа за следење на нивната еволуција како што напредуваат моделите на АИ.

Моќта на итерацијата и доработката во интеракцијата со АИ

Еден од најинтригантните наоди од Индексот на флуентност со АИ е силната корелација помеѓу итерацијата и доработката и речиси сите други однесувања на флуентност со АИ. Студијата покажа дека 85,7% од разговорите вклучувале корисници кои се надоврзувале на претходни размени за да ја доработат својата работа, наместо едноставно да го прифатат првичниот одговор. Овие итеративни разговори покажаа значително повисоки стапки на други однесувања на флуентност, ефективно двојно зголемувајќи ја вештината забележана во брзите разговори.

Влијанието на итерацијата врз однесувањата на флуентност со АИ

Индикатор на однесувањеРазговори со итерација и доработка (n=8,424)Разговори без итерација и доработка (n=1,406)Фактор на зголемување (итеративно наспроти неитеративно)
Доведување во прашање на расудувањето на ClaudeВисокоНиско5.6x
Идентификување на недостасувачки контекстВисокоНиско4x
Разјаснување на целтаВисокоСредно~2x
Специфицирање форматВисокоСредно~2x
Обезбедување примериВисокоСредно~2x
Просечен број на дополнителни однесувања на флуентност2.671.332x

Табела: Илустрирање на зголемената распространетост на однесувања на флуентност во разговори со итерација и доработка.

Овој „ефект на итерација и доработка“ ја нагласува важноста од третирање на АИ како партнер за размислување, а не како обичен делегат на задачи. Корисниците кои активно се вклучуваат во дијалог, се спротивставуваат и ги доработуваат своите прашања, имаат значително поголема веројатност критички да ги евалуираат излезите од АИ, да го доведуваат во прашање неговото расудување и да идентификуваат клучен недостасувачки контекст. Ова е во согласност со концептот на агенциски работни текови, каде човечкиот надзор и итеративните повратни информации водат до подобри резултати, како што е истражено во дискусиите околу платформи како GitHub Agentic Workflows.

Двосечниот меч на создавањето АИ артефакти

Додека итерацијата ја зголемува целокупната флуентност, извештајот откри нијансиран образец кога корисниците ја поттикнуваат АИ да произведува артефакти како што се код, документи или интерактивни алатки. Овие разговори, кои претставуваат 12,3% од примерокот, покажаа дека корисниците стануваат подирективни но изненадувачки помалку евалуативни.

При создавање артефакти, корисниците беа поверојатно да ги разјаснат своите цели (+14,7 процентни поени), да специфицираат формати (+14,5 п.п.) и да дадат примери (+13,4 п.п.). Меѓутоа, оваа зголемена директивност не се претвори во поголема претпазливост. Всушност, корисниците беа значително помалку склони да идентификуваат недостасувачки контекст (-5,2 п.п.), да проверуваат факти (-3,7 п.п.) или да го доведуваат во прашање расудувањето на моделот (-3,1 п.п.). Овој тренд е особено загрижувачки со оглед на тоа што сложените задачи, често поврзани со создавањето артефакти, се местата каде што моделите на АИ како Claude Opus 4.6 или дури и напредни модели како GPT-5 (доколку постоеше во дивината, иако врската упатува на идна или хипотетичка верзија) најверојатно ќе наидат на потешкотии.

Овој феномен може да се припише на полираните, функционално изгледачки излези што често ги генерира АИ, што може да ги доведе корисниците во лажно чувство на завршеност. Без разлика дали станува збор за дизајнирање кориснички интерфејс или за изработка на правна анализа, способноста критички да се испита излезот на АИ останува најважна. Како што моделите на АИ стануваат пософистицирани, ризикот од некритичко прифаќање на навидум совршени излези расте, правејќи ги евалуативните вештини повредни од кога било.

Развивање на вашата сопствена флуентност со АИ

Добрата вест е дека флуентноста со АИ, како и секоја вештина, може да се развие. Врз основа на нивните наоди, Anthropic нуди практични совети за корисниците кои сакаат да ја подобрат својата соработка човек-АИ:

  1. Останување во разговор: Прифатете ги првичните одговори на АИ како почетна точка. Вклучете се во дополнителни прашања, предизвикувајте претпоставки и итеративно доработувајте ги вашите барања. Оваа активна ангажираност е најсилниот предвидувач за други однесувања на флуентност.
  2. Доведување во прашање на полирани излези: Кога АИ модел ќе произведе нешто што изгледа комплетно и точно, застанете и применете критичко размислување. Прашајте: Дали ова е навистина точно? Дали нешто недостасува? Дали расудувањето е издржано? Не дозволувајте визуелната полираност да ја надвладее критичката евалуација.
  3. Поставување услови за соработка: Проактивно дефинирајте како сакате АИ да комуницира со вас. Експлицитни инструкции како „Противи се ако моите претпоставки се погрешни“, „Објасни ми го своето расудување“ или „Кажи ми што не ти е јасно“ можат фундаментално да ја променат динамиката, поттикнувајќи потранспарентна и поцврста соработка.

Основа за идниот развој на вештини со АИ

Важно е да се признаат ограничувањата на оваа првична студија. Примерокот, составен од корисници на Claude.ai кои учествувале во повеќекратни разговори од почетокот на 2026 година, веројатно е пристрасен кон раните прифаќачи кои веќе се навикнати на АИ, а не на пошироката популација. Студијата, исто така, се фокусира исклучиво на забележливите однесувања во рамките на интерфејсот за разговор, изоставувајќи ги клучните етички и одговорни однесувања при употреба што се случуваат надворешно. Овие забелешки значат дека Индексот на флуентност со АИ обезбедува основа за оваа специфична популација и почетна точка за подлабоки, лонгитудинални истражувања.

И покрај овие ограничувања, Индексот на флуентност со АИ означува значаен чекор кон разбирање и поттикнување на ефективна соработка човек-АИ. Како што алатките на АИ продолжуваат да се развиваат, оспособувањето на корисниците со вештини за критичко, итеративно и одговорно ангажирање ќе биде клучно за остварување на целиот потенцијал на оваа технологија, истовремено ублажувајќи ги нејзините ризици. Овој првичен извештај ја поставува сцената за идни истражувања, ветувајќи дека ќе ги води и корисниците и развивачите во изградбата на пофлуентна и покорисна иднина водена од АИ.

Често поставувани прашања

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели