Code Velocity
Pananaliksik sa AI

Indeks ng Kahusayan sa AI: Pagsukat ng Kasanayan sa Pakikipagtulungan ng Tao-AI

·7 min basahin·Anthropic·Orihinal na pinagmulan
I-share
Graphic na naglalarawan sa konsepto ng kahusayan sa AI at pakikipagtulungan ng tao-AI, na may mga data point.

Unahin ang Kahusayan: Ang AI Index ng Anthropic para sa Mahusay na Pakikipagtulungan

Ang mabilis na pagsasama ng mga tool ng AI sa pang-araw-araw na gawain ay kahanga-hanga. Gayunpaman, habang nagiging laganap ang AI, lumilitaw ang isang kritikal na tanong: ginagamit lamang ba ng mga user ang mga tool na ito, o nililinang ba nila ang kinakailangang kasanayan upang epektibo itong magamit? Nilalayon ng Anthropic, isang lider sa responsableng pagpapaunlad ng AI, na sagutin ito sa kanilang groundbreaking na Indeks ng Kahusayan sa AI, isang bagong ulat na idinisenyo upang sukatin at subaybayan ang ebolusyon ng mga kasanayan sa pakikipagtulungan ng tao-AI.

Ang mga nakaraang Ulat sa Edukasyon ng Anthropic ay nagbigay-liwanag kung paano ginagamit ng mga estudyante sa unibersidad at mga edukador ang mga advanced na modelo tulad ng Claude para sa mga gawain mula sa pagbuo ng ulat hanggang sa pagpaplano ng aralin. Gayunpaman, ang mga pag-aaral na ito ay pangunahing nakatuon sa kung ano ang ginagawa ng mga gumagamit. Ang Indeks ng Kahusayan sa AI ay sumasaliksik nang mas malalim, tinutuklas kung gaano kahusay ang pakikipag-ugnayan ng mga indibidwal sa AI, ipinakikilala ang isang balangkas para sa pag-unawa sa "kahusayan" sa transporpormatibong teknolohiyang ito.

Pag-unawa sa Kahusayan sa AI: Ang 4D Framework

Upang sukatin ang kahusayan sa AI, nakipagtulungan ang Anthropic kina Professors Rick Dakan at Joseph Feller upang buuin ang 4D AI Fluency Framework. Ang komprehensibong balangkas na ito ay tumutukoy ng 24 na partikular na pag-uugali na nagpapakita ng ligtas at epektibong pakikipagtulungan ng tao-AI. Para sa layunin ng paunang pag-aaral na ito, nakatuon ang Anthropic sa 11 pag-uugali na direkta at kapansin-pansing nakikita sa loob ng Claude.ai chat interface. Ang natitirang 13, na kinabibilangan ng mga kritikal na aspeto tulad ng pagiging tapat tungkol sa papel ng AI sa trabaho o pagsasaalang-alang sa mga kahihinatnan ng output na nabuo ng AI, ay nangyayari sa labas ng chat at susuriin sa hinaharap na kwalitatibong pananaliksik.

Gamit ang isang tool sa pagsusuri na nagpoprotekta sa privacy, masinsinang pinag-aralan ng pangkat ng pananaliksik ang 9,830 multi-turn na pag-uusap sa Claude.ai sa loob ng 7-araw na panahon noong Enero 2026. Ang malawak na dataset na ito ay nagbigay ng isang matatag na baseline para sa pagsukat ng presensya o kawalan ng 11 kapansin-pansing pag-uugali ng kahusayan, na humantong sa paglikha ng Indeks ng Kahusayan sa AI. Nag-aalok ang indeks ng isang snapshot ng kasalukuyang mga pattern ng pakikipagtulungan at isang pundasyon para sa pagsubaybay sa kanilang ebolusyon habang umuunlad ang mga modelo ng AI.

Ang Kapangyarihan ng Pag-ulit at Pagpino sa Interaksyon ng AI

Isa sa mga pinakakapansin-pansing natuklasan mula sa Indeks ng Kahusayan sa AI ay ang matibay na korelasyon sa pagitan ng pag-ulit at pagpino at halos lahat ng iba pang pag-uugali ng kahusayan sa AI. Ipinahayag ng pag-aaral na 85.7% ng mga pag-uusap ay kinabibilangan ng mga gumagamit na bumubuo sa mga nakaraang pagpapalitan upang pinuhin ang kanilang trabaho, sa halip na simpleng tanggapin ang paunang tugon. Ang mga paulit-ulit na pag-uusap na ito ay nagpakita ng mas mataas na antas ng iba pang pag-uugali ng kahusayan, epektibong dinoble ang kasanayan na nakikita sa mabilis na, pabalik-balik na mga chat.

Epekto ng Pag-ulit sa Pag-uugali ng Kahusayan sa AI

Tagapagpahiwatig ng Pag-uugaliMga Pag-uusap na may Pag-ulit at Pagpino (n=8,424)Mga Pag-uusap na walang Pag-ulit at Pagpino (n=1,406)Factor ng Pagtaas (Paulit-ulit vs. Hindi Paulit-ulit)
Pagtatanong sa Dahilan ng ClaudeMataasMababa5.6x
Pagtukoy sa Nawawalang KontekstoMataasMababa4x
Paglilinaw ng LayuninMataasKatamtaman~2x
Pagtukoy ng FormatMataasKatamtaman~2x
Pagbibigay ng mga HalimbawaMataasKatamtaman~2x
Average na Karagdagang Pag-uugali ng Kahusayan2.671.332x

Talaan: Naglalarawan sa pagtaas ng paglaganap ng mga pag-uugali ng kahusayan sa mga pag-uusap na may pag-ulit at pagpino.

Binibigyang-diin ng 'epekto ng pag-ulit at pagpino' ang kahalagahan ng pagtrato sa AI bilang isang kasama sa pag-iisip sa halip na isang simpleng delegado ng gawain. Ang mga gumagamit na aktibong nakikibahagi sa isang diyalogo, nagbibigay ng pagtutol at pinupuhin ang kanilang mga query, ay mas malamang na kritikal na suriin ang mga output ng AI, tanungin ang dahilan nito, at tukuyin ang mahahalagang nawawalang konteksto. Ito ay naaayon sa konsepto ng mga agentic workflow, kung saan ang pangangasiwa ng tao at iterative na feedback ay nagtutulak ng mas mahusay na resulta, tulad ng sinaliksik sa mga talakayan sa paligid ng mga platform tulad ng GitHub Agentic Workflows.

Ang May Dalawang Tarim na Espada ng Paglikha ng AI Artifact

Bagama't pinapataas ng pag-ulit ang pangkalahatang kahusayan, natuklasan ng ulat ang isang nuanced na pattern kapag ang mga gumagamit ay nag-uudyok sa AI na gumawa ng mga artifact tulad ng code, dokumento, o interactive na tool. Ang mga pag-uusap na ito, na kumakatawan sa 12.3% ng sample, ay nagpakita na ang mga gumagamit ay nagiging mas direktibo ngunit nakakagulat na hindi gaanong kritikal.

Kapag lumilikha ng mga artifact, mas malamang na linawin ng mga gumagamit ang kanilang mga layunin (+14.7 porsyentong puntos), tukuyin ang mga format (+14.5pp), at magbigay ng mga halimbawa (+13.4pp). Gayunpaman, ang tumaas na pagiging direktibo na ito ay hindi humantong sa mas malaking pagkilala. Sa katunayan, ang mga gumagamit ay kapansin-pansing hindi gaanong malamang na tukuyin ang nawawalang konteksto (-5.2pp), suriin ang mga katotohanan (-3.7pp), o tanungin ang dahilan ng modelo (-3.1pp). Ang trend na ito ay partikular na ikinababahala dahil ang mga kumplikadong gawain, na kadalasang nauugnay sa paglikha ng artifact, ay kung saan ang mga modelo ng AI tulad ng Claude Opus 4.6 o kahit ang mga advanced na modelo tulad ng GPT-5 (kung ito ay kasalukuyang magagamit, bagama't ang link ay tumutukoy sa isang hinaharap o hypothetical na bersyon) ay pinakamalamang na makaranas ng mga kahirapan.

Maaaring maiugnay ang penomenong ito sa pinakintab, at mukhang functional na mga output na madalas buuin ng AI, na maaaring magbigay sa mga gumagamit ng maling pakiramdam ng pagkakumpleto. Kung ito man ay pagdidisenyo ng UI o pagbalangkas ng isang legal na pagsusuri, ang kakayahang kritikal na suriin ang output ng AI ay nananatiling pinakamahalaga. Habang nagiging mas sopistikado ang mga modelo ng AI, lumalaki ang panganib ng hindi kritikal na pagtanggap sa mga tila perpektong output, na ginagawang mas mahalaga kaysa kailanman ang mga kasanayan sa pagtatasa.

Pagpapaunlad ng Iyong Sariling Kahusayan sa AI

Ang magandang balita ay ang kahusayan sa AI, tulad ng anumang kasanayan, ay maaaring paunlarin. Batay sa kanilang mga natuklasan, nag-aalok ang Anthropic ng praktikal na payo para sa mga gumagamit na naghahanap upang mapahusay ang kanilang pakikipagtulungan ng tao-AI:

  1. Pananatili sa Pag-uusap: Tanggapin ang mga paunang tugon ng AI bilang panimulang punto. Makilahok sa mga follow-up na tanong, hamunin ang mga palagay, at paulit-ulit na pinuhin ang iyong mga kahilingan. Ang aktibong pakikilahok na ito ang pinakamatibay na tagapagpahiwatig ng iba pang mga pag-uugali ng kahusayan.
  2. Pagtatanong sa mga Pinakintab na Output: Kapag ang isang modelo ng AI ay gumawa ng isang bagay na mukhang kumpleto at tumpak, huminto at mag-apply ng kritikal na pag-iisip. Tanungin: Ito ba ay tunay na tumpak? Mayroon bang nawawala? Ang dahilan ba ay matatag? Huwag hayaang manaig ang visual na kinis sa kritikal na pagsusuri.
  3. Pagtatakda ng mga Tuntunin ng Pakikipagtulungan: Aktibong tukuyin kung paano mo gustong makipag-ugnayan sa iyo ang AI. Ang mga tahasang tagubilin tulad ng 'Tutulan kung mali ang aking mga palagay,' 'Ipaliwanag sa akin ang iyong dahilan,' o 'Sabihin sa akin kung ano ang hindi mo sigurado' ay maaaring malaki ang pagbabago sa dinamika, na nagtataguyod ng mas transparent at matatag na pakikipagtulungan.

Isang Batayan para sa Pagpapaunlad ng Kasanayan sa AI sa Hinaharap

Mahalagang kilalanin ang mga limitasyon ng paunang pag-aaral na ito. Ang sample, na binubuo ng mga gumagamit ng Claude.ai na may multi-turn na pag-uusap mula sa unang bahagi ng 2026, ay malamang na mas nakatuon sa mga early adopter na kumportable na sa AI, hindi sa mas malawak na populasyon. Nakatuon din ang pag-aaral lamang sa mga kapansin-pansing pag-uugali sa loob ng chat interface, na iniiwan ang mahahalagang etikal at responsableng paggamit na pag-uugali na nangyayari sa labas. Ang mga babalang ito ay nangangahulugan na ang Indeks ng Kahusayan sa AI ay nagbibigay ng isang baseline para sa partikular na populasyon na ito at isang panimulang punto para sa mas malalim, longitudinal na pananaliksik.

Sa kabila ng mga limitasyong ito, ang Indeks ng Kahusayan sa AI ay nagmamarka ng isang mahalagang hakbang patungo sa pag-unawa at pagtataguyod ng epektibong pakikipagtulungan ng tao-AI. Habang patuloy na umuunlad ang mga tool ng AI, ang pagbibigay kapangyarihan sa mga gumagamit ng mga kasanayan upang makipag-ugnayan nang kritikal, paulit-ulit, at responsable ay magiging sentro sa pagtatanto ng buong potensyal ng teknolohiyang ito habang binabawasan ang mga panganib nito. Itinatakda ng paunang ulat na ito ang yugto para sa hinaharap na pananaliksik, na nangangakong gabayan ang parehong mga gumagamit at developer sa pagbuo ng isang mas mahusay at kapaki-pakinabang na hinaharap na pinapagana ng AI.

Mga Karaniwang Tanong

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Manatiling Updated

Kunin ang pinakabagong AI news sa iyong inbox.

I-share