title: "Tehisintellekti sujuvuse indeks: Inimese ja AI koostööoskuste mõõtmine" slug: "fluency-index" date: "2026-03-03" lang: "et" source: "https://www.anthropic.com/research/AI-fluency-index" category: "AI Uuringud" keywords:
- Tehisintellekti sujuvuse indeks
- Anthropicu uuring
- Inim-AI koostöö
- AI oskuste arendamine
- Iteratsioon ja täpsustamine
- AI artefaktide loomine
- AI kriitiline hindamine
- 4D tehisintellekti sujuvuse raamistik
- Claude.ai kasutamine
- AI kasutaja käitumine
- Vastutustundlik AI kasutamine
- AI oskus meta_description: 'Anthropicu uus tehisintellekti sujuvuse indeks mõõdab kriitilisi inim-AI koostööoskusi, rõhutades iteratsiooni ja kriitilise hindamise olulisust tehisintellekti tõhusal kasutamisel.' image: "/images/articles/fluency-index.png" image_alt: "Graafik, mis illustreerib tehisintellekti sujuvuse ja inim-AI koostöö kontseptsiooni andmepunktidega." quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 7 faq:
- question: "Mis on Anthropicu tehisintellekti sujuvuse indeks?" answer: "Anthropicu tehisintellekti sujuvuse indeks on Anthropicu väljatöötatud uus mõõdik, millega hinnatakse, kui hästi arendavad inimesed oskusi tehisintellekti tööriistade tõhusaks kasutamiseks. Ainuüksi omaksvõtmisest kaugemale liikudes jälgib indeks 11 otse jälgitavat käitumist, mis esindavad ohutut ja tõhusat inim-AI koostööd, tuginedes 4D tehisintellekti sujuvuse raamistikule. Selle eesmärk on pakkuda kasutaja oskuste baasmõõdet, aidates mõista, kuidas need kriitilised oskused arenevad, kuna AI-tehnoloogia integreeritakse igapäevaellu. Esialgses uuringus analüüsiti peaaegu 10 000 vestlust Claude.ai-s, et tuvastada kasutaja interaktsiooni ja oskuste arengu peamised mustrid."
- question: "Kuidas mõõdab Anthropic tehisintellekti sujuvust?" answer: "Tehisintellekti sujuvust mõõdetakse jälgides 11 spetsiifilise käitumusliku indikaatori olemasolu või puudumist kasutajate interaktsioonides Claude'iga Claude.ai-s. Need indikaatorid on tuletatud laiemast 4D tehisintellekti sujuvuse raamistikust, mis defineerib 24 ohutu ja tõhusa inim-AI koostöö käitumist. Esialgse uuringu jaoks kasutas Anthropic privaatsust säilitavat analüüsivahendit, et uurida 9830 mitme pöördega vestlust 7-päevase perioodi jooksul. Käitumisi nagu 'iteratsioon ja täpsustamine', 'põhjenduse küsimine' ja 'puuduva konteksti tuvastamine' jälgiti ja klassifitseeriti igas vestluses olemasolevaks või puuduvaks, pakkudes kvantitatiivset baasi AI oskustele."
- question: "Mis on 'iteratsiooni ja täpsustamise efekt' tehisintellekti sujuvuses?" answer: "'Iteratsiooni ja täpsustamise efekt' viitab tugevale korrelatsioonile kasutajate vahel, kes ehitavad oma töö täpsustamiseks AI-ga eelmistele vahetustele, ja teiste peamiste AI sujuvuse käitumiste ilmnemisele. Vestlused, mis näitasid iteratsiooni ja täpsustamist – mis tähendab, et kasutajad ei aktsepteeri lihtsalt esimest AI vastust, vaid tegelevad aktiivselt järelküsimuste, vastuväidete ja kohandustega – näitasid oluliselt kõrgemaid teiste sujuvuse indikaatorite määrasid. Näiteks olid need iteratiivsed vestlused 5,6 korda tõenäolisemalt seotud kasutajatega, kes küsisid Claude'i põhjenduste kohta, ja 4 korda tõenäolisemalt tuvastasid puuduva konteksti, rõhutades pideva ja dünaamilise kaasatuse olulisust AI oskuste arendamisel."
- question: "Miks muutuvad kasutajad AI-ga artefakte luues vähem hindavaks?" answer: "Anthropicu uuring leidis, et kui kasutajad kaasavad AI-d artefaktide, näiteks koodi, dokumentide või interaktiivsete tööriistade loomiseks, kipuvad nad muutuma direktiivsemaks, kuid paradoksaalselt vähem hindavaks. See tähendab, et kasutajad selgitavad tõenäolisemalt eesmärke ja annavad näiteid, kuid küsivad vähem mudeli põhjenduste kohta, tuvastavad puuduvat konteksti või kontrollivad fakte. Võimalikud selgitused hõlmavad AI-ga loodud väljundite lihvitud välimust, mis võib viia kasutajad tulemusi enneaegselt usaldama, või teatud ülesannete olemust, kus funktsionaalne esteetika võib ületada faktilise täpsuse. Sõltumata sellest rõhutab see muster kriitilist valdkonda inim-AI koostöö parandamisel, rõhutades vajadust jätkuva kriitilise hindamise järele isegi näiliselt täielike väljundite puhul."
- question: "Kuidas saavad inimesed Anthropicu andmetel oma AI sujuvust parandada?" answer: "Anthropic soovitab kolme võtmevaldkonda, kuidas inimesed saavad oma AI sujuvust suurendada. Esiteks, 'vestluses püsimine' tähendab AI esialgsete vastuste käsitlemist lähtepunktidena, järelküsimuste esitamist ja väljundite aktiivset täpsustamist. Teiseks, 'lihvitud väljundite küsimärgi alla seadmine' hõlmab AI-ga loodud artefaktide kriitilist hindamist täpsuse, täielikkuse ja loogilise põhjendatuse osas, isegi kui need tunduvad täiuslikud. Kolmandaks, 'koostöö tingimuste seadmine' julgustab kasutajaid andma AI-le selgeid juhiseid, kuidas suhelda, näiteks paludes tal selgitada oma põhjendust või lükata tagasi eeldusi. Need praktikad aitavad edendada sügavamat kaasatust ja kriitilist mõtlemist inim-AI interaktsioonides."
- question: "Millised on AI sujuvuse indeksi uuringu piirangud?" answer: "Esialgsel AI sujuvuse indeksi uuringul on mitmeid olulisi piiranguid. Valim piirdub Claude.ai kasutajatega, kes osalevad mitme pöördega vestlustes 2026. aasta jaanuari ühel nädalal, mis tõenäoliselt kaldub varajastele kasutuselevõtjatele ja ei pruugi esindada laiemat elanikkonda. Uuring hindab ka ainult 11 käitumist 24-st 4D AI sujuvuse raamistikust, keskendudes ainult otse jälgitavatele interaktsioonidele vestlusliideses, jättes seega välja kriitilised eetilised ja vastutustundliku kasutuse käitumised, mis toimuvad väliselt. Lisaks võib käitumiste binaarne klassifitseerimine jätta tähelepanuta nüansseeritud demonstratsioonid ja see ei saa arvesse võtta 'kaudseid käitumisi', kus kasutajad võivad AI väljundeid vaimselt hinnata, ilma et nad vestluses oma kriitilist hinnangut verbaliseeriksid."
# Sujuvus ennekõike: Anthropicu AI indeks oskuslikuks koostööks
Tehisintellekti tööriistade kiire integreerimine igapäevatoimingutesse on olnud hämmastav. Kuid kuna tehisintellektist saab kõikjalolev nähtus, kerkib esile kriitiline küsimus: kas kasutajad lihtsalt võtavad need tööriistad kasutusele või arendavad nad vajalikke oskusi nende tõhusaks ärakasutamiseks? Anthropic, vastutustundliku tehisintellekti arenduse liider, püüab sellele vastata oma murrangulise **AI sujuvuse indeksiga** – uue aruandega, mis on loodud inim-AI koostööoskuste arengu mõõtmiseks ja jälgimiseks.
Eelmised Anthropicu haridusaruanded heitsid valgust sellele, kuidas ülikooli üliõpilased ja haridustöötajad kasutavad täiustatud mudeleid nagu Claude erinevateks ülesanneteks, alates aruannete koostamisest kuni tunniplaanide planeerimiseni. Need uuringud keskendusid aga peamiselt *sellele, mida* kasutajad tegid. AI sujuvuse indeks süveneb sügavamale, uurides *kui hästi* inimesed AI-ga suhtlevad, tutvustades raamistikku selle ümberkujundava tehnoloogia "sujuvuse" mõistmiseks.
## AI sujuvuse dešifreerimine: 4D raamistik
AI sujuvuse kvantifitseerimiseks tegi Anthropic koostööd professorite Rick Dakani ja Joseph Felleriga, et arendada välja **4D AI sujuvuse raamistik**. See terviklik raamistik tuvastab 24 spetsiifilist käitumist, mis iseloomustavad ohutut ja tõhusat inim-AI koostööd. Käesoleva esialgse uuringu eesmärgil keskendus Anthropic 11 käitumisele, mis on otse jälgitavad Claude.ai vestlusliideses. Ülejäänud 13, mis hõlmavad kriitilisi aspekte nagu ausus AI rolli osas töös või AI-ga loodud väljundi tagajärgede kaalumine, toimuvad vestlusest väljaspool ja neid hinnatakse tulevases kvalitatiivses uuringus.
Kasutades privaatsust säilitavat analüüsivahendit, uuris uurimisrühm hoolikalt 9830 mitme pöördega vestlust Claude.ai-s 7-päevase perioodi jooksul 2026. aasta jaanuaris. See ulatuslik andmekogum andis tugeva baasjoone 11 jälgitava sujuvuskäitumise olemasolu või puudumise mõõtmiseks, viies AI sujuvuse indeksi loomiseni. Indeks pakub ülevaadet praegustest koostöömudelitest ja aluse nende arengu jälgimiseks AI mudelite arenedes.
## Iteratsiooni ja täpsustamise jõud AI interaktsioonis
Üks AI sujuvuse indeksi kõige veenvamaid leide on tugev korrelatsioon **iteratsiooni ja täpsustamise** ning peaaegu kõigi teiste AI sujuvuskäitumiste vahel. Uuring näitas, et 85,7% vestlustest hõlmasid kasutajad oma töö täpsustamiseks varasematele vahetustele tuginedes, mitte lihtsalt esialgset vastust aktsepteerides. Need iteratiivsed vestlused demonstreerisid oluliselt kõrgemaid teiste sujuvuskäitumiste määrasid, kahekordistades tõhusalt kiiretes edasi-tagasi vestlustes nähtud oskusi.
### Iteratsiooni mõju AI sujuvuskäitumisele
| Käitumuslik indikaator | Vestlused iteratsiooni ja täpsustamisega (n=8,424) | Vestlused ilma iteratsiooni ja täpsustamiseta (n=1,406) | Suurenemise tegur (iteratiivsed vs. mitte-iteratiivsed) |
| :------------------------------------------- | :------------------------------------------------: | :-----------------------------------------------------: | :----------------------------------------------------: |
| Claude'i põhjenduste küsimärgi alla seadmine | High | Low | 5.6x |
| Puuduva konteksti tuvastamine | High | Low | 4x |
| Eesmärgi selgitamine | High | Medium | ~2x |
| Formati täpsustamine | High | Medium | ~2x |
| Näidete pakkumine | High | Medium | ~2x |
| **Keskmiselt lisanduvaid sujuvuskäitumisi** | **2.67** | **1.33** | **2x** |
*Tabel: Illustreerib sujuvuskäitumiste suurenenud levikut vestlustes iteratsiooni ja täpsustamisega.*
See "iteratsiooni ja täpsustamise efekt" rõhutab AI käsitlemise olulisust pigem mõttepartnerina kui pelgalt ülesande delegeerijana. Kasutajad, kes aktiivselt dialoogis osalevad, vastuväiteid esitavad ja oma päringuid täpsustavad, hindavad oluliselt tõenäolisemalt kriitiliselt AI väljundeid, seavad kahtluse alla selle põhjendused ja tuvastavad olulise puuduva konteksti. See on kooskõlas agendiliste töövoogude kontseptsiooniga, kus inimlik järelevalve ja iteratiivne tagasiside viivad paremate tulemusteni, nagu on uuritud platvormide, nagu [GitHubi agendiliste töövoogude](/et/github-agentic-workflows), aruteludes.
## AI artefaktide loomise kahetine mõõk
Kuigi iteratsioon suurendab üldist sujuvust, avastas aruanne nüansseeritud mustri, kui kasutajad käskisid AI-l toota **artefakte**, nagu kood, dokumendid või interaktiivsed tööriistad. Need vestlused, mis moodustasid 12,3% valimist, näitasid, et kasutajad muutusid *direktiivsemaks*, kuid üllatavalt vähem *hindavaks*.
Artefakte luues selgitasid kasutajad tõenäolisemalt oma eesmärke (+14,7 protsendipunkti), täpsustasid formaate (+14,5 protsendipunkti) ja andsid näiteid (+13,4 protsendipunkti). See suurenenud direktiivsus ei toonud aga kaasa suuremat taiplikkust. Tegelikult tuvastasid kasutajad märkimisväärselt harvemini puuduvat konteksti (-5,2 protsendipunkti), kontrollisid fakte (-3,7 protsendipunkti) või seadsid kahtluse alla mudeli põhjendusi (-3,1 protsendipunkti). See suundumus on eriti murettekitav, arvestades, et keerukad ülesanded, mis sageli on seotud artefaktide loomisega, on kohad, kus AI mudelid nagu [Claude Opus 4.6](/et/claude-opus-4-6) või isegi täiustatud mudelid nagu GPT-5 (kui see oleks avalikult saadaval, kuigi link viitab tulevasele või hüpoteetilisele versioonile) kõige tõenäolisemalt raskustega kokku puutuvad.
Seda nähtust võib seostada AI sageli loodud lihvitud ja funktsionaalsete väljunditega, mis võivad kasutajaid eksitada vale lõpetatuse tundesse. Olgu tegemist kasutajaliidese kujundamisega või õigusliku analüüsi koostamisega, AI väljundi kriitilise kontrollimise võime jääb esmatähtsaks. Kuna AI mudelid muutuvad keerukamaks, kasvab risk näiliselt täiuslike väljundite kriitikavabaks aktsepteerimiseks, muutes hindamisoskused väärtuslikumaks kui kunagi varem.
## Oma AI sujuvuse arendamine
Hea uudis on see, et AI sujuvust, nagu iga oskust, saab arendada. Oma leidude põhjal pakub Anthropic praktilisi nõuandeid kasutajatele, kes soovivad parandada oma inim-AI koostööd:
1. **Püsi vestluses:** Käsitse algseid AI vastuseid lähtepunktina. Esita järelküsimusi, kahtlusta eeldusi ja täpsusta oma päringuid iteratiivselt. See aktiivne kaasatus on tugevaim ennustaja teiste sujuvuskäitumiste puhul.
2. **Seadista lihvitud väljundid kahtluse alla:** Kui AI mudel toodab midagi, mis *näib* täielik ja täpne, peatu ja rakenda kriitilist mõtlemist. Küsi: kas see on tõeliselt täpne? Kas midagi on puudu? Kas põhjendus peab paika? Ära lase visuaalsel lihvitusel kriitilisest hindamisest üle sõita.
3. **Määra koostöö tingimused:** Määratle ennetavalt, kuidas soovid, et AI sinuga suhtleks. Selged juhised, nagu "Esita vastuväiteid, kui minu eeldused on valed," "Juhenda mind oma põhjenduste kaudu" või "Ütle mulle, milles sa ebakindel oled," võivad dünaamikat põhjalikult muuta, edendades läbipaistvamat ja tugevamat koostööd.
## Baasjoon tulevaseks AI oskuste arendamiseks
Oluline on tunnistada selle esialgse uuringu piiranguid. Valim, mis koosnes Claude.ai mitmekordse pöördega kasutajatest 2026. aasta algusest, kaldub tõenäoliselt varajastele kasutuselevõtjatele, kes on juba AI-ga tuttavad, mitte laiemale elanikkonnale. Uuring keskendub ka ainult vestlusliideses jälgitavatele käitumistele, jättes välja olulised eetilised ja vastutustundliku kasutamise käitumised, mis toimuvad väliselt. Need hoiatused tähendavad, et AI sujuvuse indeks pakub baasjoone *sellele konkreetsele populatsioonile* ja lähtepunkti sügavamateks pikaajalisteks uuringuteks.
Vaatamata nendele piirangutele tähistab AI sujuvuse indeks olulist sammu tõhusa inim-AI koostöö mõistmise ja edendamise suunas. Kuna AI tööriistad arenevad jätkuvalt, on kasutajate varustamine kriitiliselt, iteratiivselt ja vastutustundlikult suhtlemise oskustega keskne selle tehnoloogia täieliku potentsiaali realiseerimisel, vähendades samal ajal selle riske. See esialgne aruanne loob aluse tulevastele uuringutele, lubades juhendada nii kasutajaid kui ka arendajaid sujuvama ja kasulikuma AI-põhise tuleviku loomisel.
Korduma kippuvad küsimused
What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.
Püsige kursis
Saage värskeimad AI uudised oma postkasti.
