Code Velocity
AI pētījumi

AI plūstamības indekss: Cilvēka un AI sadarbības prasmju mērīšana

·7 min lasīšana·Anthropic·Sākotnējais avots
Dalīties
Grafiks, kas ilustrē AI plūstamības un cilvēka un AI sadarbības jēdzienu ar datu punktiem.

Plūstamība vispirms: Anthropic AI indekss prasmīgai sadarbībai

Ātrā AI rīku integrācija ikdienas rutīnā ir bijusi pārsteidzoša. Tomēr, AI kļūstot visuresošai, rodas kritisks jautājums: vai lietotāji tikai pieņem šos rīkus, vai arī viņi attīsta nepieciešamās prasmes, lai tos efektīvi izmantotu? Anthropic, līderis atbildīgas AI attīstībā, mērķis ir atbildēt uz to ar savu revolucionāro AI plūstamības indeksu, jaunu ziņojumu, kas izstrādāts, lai mērītu un izsekotu cilvēka un AI sadarbības prasmju attīstību.

Iepriekšējie Anthropic Izglītības ziņojumi atklāja, kā universitāšu studenti un pedagogi izmanto uzlabotus modeļus, piemēram, Claude, uzdevumiem, sākot no ziņojumu ģenerēšanas līdz stundu plānošanai. Tomēr šajos pētījumos galvenokārt tika koncentrēts uz to, ko lietotāji darīja. AI plūstamības indekss iedziļinās dziļāk, pētot, cik labi indivīdi iesaistās AI, ieviešot ietvaru "plūstamības" izpratnei ar šo transformējošo tehnoloģiju.

AI plūstamības atšifrēšana: 4D ietvars

Lai kvantificētu AI plūstamību, Anthropic sadarbojās ar profesoriem Riku Dakanu un Džozefu Felleru, lai izstrādātu 4D AI plūstamības ietvaru. Šis visaptverošais ietvars identificē 24 specifiskas uzvedības, kas ilustrē drošu un efektīvu cilvēka un AI sadarbību. Šī sākotnējā pētījuma mērķiem Anthropic koncentrējās uz 11 uzvedībām, kas tieši novērojamas Claude.ai tērzēšanas saskarnē. Atlikušās 13, kas ietver tādus kritiskus aspektus kā godīgums par AI lomu darbā vai AI ģenerētās izvades seku apsvēršana, notiek ārpus tērzēšanas un tiks novērtētas turpmākajos kvalitatīvajos pētījumos.

Izmantojot privātumu saglabājošu analīzes rīku, pētnieku komanda rūpīgi izpētīja 9830 daudzvirzienu sarunas Claude.ai 7 dienu periodā 2026. gada janvārī. Šis plašais datu kopums nodrošināja spēcīgu bāzes līniju 11 novērojamo plūstamības uzvedību klātbūtnes vai neesamības mērīšanai, kā rezultātā tika izveidots AI plūstamības indekss. Indekss sniedz ieskatu par pašreizējiem sadarbības modeļiem un pamatu to attīstības izsekošanai, AI modeļiem attīstoties.

Iterācijas un pilnveidošanas spēks AI mijiedarbībā

Viens no visinteresantākajiem atklājumiem no AI plūstamības indeksa ir spēcīgā korelācija starp iterāciju un pilnveidošanu un gandrīz visām citām AI plūstamības uzvedībām. Pētījums atklāja, ka 85,7% sarunu lietotāji balstījās uz iepriekšējām mijiedarbībām, lai pilnveidotu savu darbu, nevis vienkārši pieņēma sākotnējo atbildi. Šīs iteratīvās sarunas demonstrēja ievērojami augstākus citu plūstamības uzvedību rādītājus, efektīvi dubultojot prasmi, kas novērota ātrās, turp un atpakaļ tērzēšanas sarunās.

Iterācijas ietekme uz AI plūstamības uzvedību

Uzvedības indikatorsSarunas ar iterāciju un pilnveidošanu (n=8,424)Sarunas bez iterācijas un pilnveidošanas (n=1,406)Palielinājuma faktors (Iteratīvs vs. Neiteratīvs)
Claude pamatojuma apšaubīšanaAugstsZems5.6x
Trūkstošā konteksta identificēšanaAugstsZems4x
Mērķa precizēšanaAugstsVidējs~2x
Formāta norādīšanaAugstsVidējs~2x
Piemēru sniegšanaAugstsVidējs~2x
Vidēji papildu plūstamības uzvedības2.671.332x
Tabula: Ilustrē plūstamības uzvedības pieaugošo izplatību sarunās ar iterāciju un pilnveidošanu.

Šis "iterācijas un pilnveidošanas efekts" uzsver, cik svarīgi ir uzlūkot AI kā domāšanas partneri, nevis tikai kā uzdevumu deleģēšanas rīku. Lietotāji, kuri aktīvi iesaistās dialogā, apstrīdot un pilnveidojot savus vaicājumus, ievērojami biežāk kritiski novērtē AI izvades datus, apšauba tā pamatojumu un identificē kritiski trūkstošo kontekstu. Tas saskan ar aģentūras darbplūsmu koncepciju, kur cilvēka uzraudzība un iteratīva atgriezeniskā saite nodrošina labākus rezultātus, kā tas aplūkots diskusijās par platformām, piemēram, GitHub aģentūras darbplūsmas.

AI artefaktu radīšanas divpusējs zobens

Kamēr iterācija veicina kopējo plūstamību, ziņojums atklāja niansētu modeli, kad lietotāji liek AI radīt artefaktus, piemēram, kodu, dokumentus vai interaktīvus rīkus. Šajās sarunās, kas veidoja 12,3% no parauga, lietotāji kļuva direktīvāki, bet pārsteidzoši mazāk vērtējoši.

Veidojot artefaktus, lietotāji biežāk precizēja savus mērķus (+14,7 procentpunkti), norādīja formātus (+14,5pp) un sniedza piemērus (+13,4pp). Tomēr šī paaugstinātā direktīvība nenoveda pie lielākas izpratnes. Patiesībā lietotāji ievērojami retāk identificēja trūkstošo kontekstu (-5,2pp), pārbaudīja faktus (-3,7pp) vai apšaubīja modeļa pamatojumu (-3,1pp). Šī tendence ir īpaši satraucoša, ņemot vērā, ka sarežģīti uzdevumi, kas bieži saistīti ar artefaktu radīšanu, ir tie, kuros AI modeļi, piemēram, Claude Opus 4.6 vai pat uzlaboti modeļi, piemēram, GPT-5 (ja tas būtu pieejams, lai gan saite norāda uz nākotnes vai hipotētisku versiju), visticamāk saskarsies ar grūtībām.

Šī parādība var būt saistīta ar pulētām, funkcionāli izskatīgām izvades datu formām, ko AI bieži ģenerē, kas var radīt lietotājiem maldīgu pabeigtības sajūtu. Neatkarīgi no tā, vai tiek izstrādāta lietotāja saskarne vai sagatavota juridiska analīze, spēja kritiski izvērtēt AI izvades datus joprojām ir ārkārtīgi svarīga. AI modeļiem kļūstot sarežģītākiem, neapzinātas šķietami perfektu izvades pieņemšanas risks pieaug, padarot novērtēšanas prasmes vērtīgākas nekā jebkad agrāk.

Paša AI plūstamības attīstīšana

Labā ziņa ir tā, ka AI plūstamību, tāpat kā jebkuru prasmi, var attīstīt. Pamatojoties uz saviem atklājumiem, Anthropic piedāvā praktiskus padomus lietotājiem, kuri vēlas uzlabot savu cilvēka un AI sadarbību:

  1. Palikšana sarunā: Uztveriet sākotnējās AI atbildes kā sākuma punktu. Iesaistieties papildjautājumos, apstrīdiet pieņēmumus un iteratīvi pilnveidojiet savus pieprasījumus. Šī aktīvā iesaistīšanās ir spēcīgākais citu plūstamības uzvedību paredzētājs.
  2. Pulētu izvades apšaubīšana: Kad AI modelis rada kaut ko, kas šķiet pilnīgs un precīzs, apstājieties un pielietojiet kritisko domāšanu. Jautājiet: Vai tas patiešām ir precīzs? Vai kaut kas trūkst? Vai pamatojums ir pamatots? Neļaujiet vizuālajam pulējumam nomākt kritisko novērtējumu.
  3. Sadarbības nosacījumu noteikšana: Proaktīvi definējiet, kā vēlaties, lai AI mijiedarbojas ar jums. Skaidri norādījumi, piemēram, 'Iebilsti, ja mani pieņēmumi ir nepareizi', 'Izskaidro man savu pamatojumu' vai 'Pastāsti, par ko tu neesi pārliecināts', var būtiski mainīt dinamiku, veicinot pārredzamāku un stabilāku sadarbību.

Bāzes līnija nākotnes AI prasmju attīstībai

Ir svarīgi apzināties šī sākotnējā pētījuma ierobežojumus. Izlase, kas sastāv no Claude.ai daudzvirzienu lietotājiem no 2026. gada sākuma, visticamāk, ir vērsta uz agrīniem lietotājiem, kuri jau ir pieraduši pie AI, nevis uz plašāku populāciju. Pētījums arī koncentrējas tikai uz novērojamām uzvedībām tērzēšanas saskarnē, izlaižot būtiskas ētiskās un atbildīgās lietošanas uzvedības, kas notiek ārpus tās. Šie brīdinājumi nozīmē, ka AI plūstamības indekss nodrošina bāzes līniju šai konkrētajai populācijai un sākuma punktu dziļākiem, garenvirziena pētījumiem.

Neskatoties uz šiem ierobežojumiem, AI plūstamības indekss ir nozīmīgs solis ceļā uz efektīvas cilvēka un AI sadarbības izpratni un veicināšanu. AI rīkiem turpinot attīstīties, lietotāju pilnvarošana ar prasmēm kritiski, iteratīvi un atbildīgi iesaistīties būs galvenais, lai pilnībā realizētu šīs tehnoloģijas potenciālu, vienlaikus mazinot riskus. Šis sākotnējais ziņojums sagatavo pamatu turpmākiem pētījumiem, solot vadīt gan lietotājus, gan izstrādātājus, veidojot plūstošāku un labvēlīgāku nākotni, ko nodrošina AI.

Bieži uzdotie jautājumi

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties