Code Velocity
Kërkimi i AI

Indeksi i rrjedhshmërisë së AI: Matja e aftësive të bashkëpunimit Njeri-AI

·7 min lexim·Anthropic·Burimi origjinal
Ndaj
Grafikë që ilustron konceptin e rrjedhshmërisë së AI dhe bashkëpunimit Njeri-AI, me pika të të dhënave.

title: "Indeksi i rrjedhshmërisë së AI: Matja e aftësive të bashkëpunimit Njeri-AI" slug: "fluency-index" date: "2026-03-03" lang: "sq" source: "https://www.anthropic.com/research/AI-fluency-index" category: "Kërkimi i AI" keywords:

  • Indeksi i rrjedhshmërisë së AI
  • kërkimi i Anthropic
  • bashkëpunimi Njeri-AI
  • zhvillimi i aftësive të AI
  • Iterimi dhe përsosja
  • krijimi i artefakteve të AI
  • vlerësimi kritik i AI
  • Korniza 4D e rrjedhshmërisë së AI
  • përdorimi i Claude.ai
  • sjellja e përdoruesit të AI
  • përdorimi i përgjegjshëm i AI
  • aftësia në AI meta_description: "Indeksi i ri i rrjedhshmërisë së AI i Anthropic mat aftësitë kritike të bashkëpunimit Njeri-AI, duke theksuar rëndësinë e iterimit dhe vlerësimit kritik për përdorimin efektiv të AI." image: "/images/articles/fluency-index.png" image_alt: "Grafikë që ilustron konceptin e rrjedhshmërisë së AI dhe bashkëpunimit Njeri-AI, me pika të të dhënave." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Çfarë është Indeksi i rrjedhshmërisë së AI i Anthropic?" answer: "Indeksi i rrjedhshmërisë së AI i Anthropic është një metrikë e re e zhvilluar nga Anthropic për të vlerësuar se sa mirë individët po zhvillojnë aftësitë për të përdorur në mënyrë efektive mjetet e AI. Duke shkuar përtej adoptimit të thjeshtë, indeksi gjurmon 11 sjellje të vëzhgueshme drejtpërdrejt që përfaqësojnë bashkëpunim të sigurt dhe efektiv Njeri-AI, bazuar në Kornizën 4D të rrjedhshmërisë së AI. Ai synon të ofrojë një matje bazë të aftësisë së përdoruesit, duke ndihmuar në kuptimin se si këto aftësi kritike evoluojnë ndërsa teknologjia e AI integrohet gjithnjë e më shumë në jetën e përditshme. Studimi fillestar analizoi pothuajse 10,000 biseda në Claude.ai për të identifikuar modelet kyçe në ndërveprimin e përdoruesit dhe zhvillimin e aftësive."
  • question: "Si matet rrjedhshmëria e AI nga Anthropic?" answer: "Rrjedhshmëria e AI matet duke gjurmuar praninë ose mungesën e 11 treguesve specifikë të sjelljes gjatë ndërveprimeve të përdoruesve me Claude në Claude.ai. Këta tregues rrjedhin nga Korniza më e gjerë 4D e rrjedhshmërisë së AI, e cila përcakton 24 sjellje të bashkëpunimit të sigurt dhe efektiv Njeri-AI. Për studimin fillestar, Anthropic përdori një mjet analize që ruan privatësinë për të ekzaminuar 9,830 biseda me shumë kthime gjatë një periudhe 7-ditore. Sjellje si 'iterimi dhe përsosja', 'pyetja e arsyetimit' dhe 'identifikimi i kontekstit të munguar' u vëzhguan dhe u klasifikuan si të pranishme ose të mungojnë brenda çdo bisede, duke ofruar një bazë sasiore për aftësinë në AI."
  • question: "Çfarë është 'efekti i iterimit dhe përsosjes' në rrjedhshmërinë e AI?" answer: "‘Efekti i iterimit dhe përsosjes’ i referohet korrelacionit të fortë të gjetur midis përdoruesve që ndërtojnë mbi shkëmbimet e mëparshme për të përsosur punën e tyre me AI, dhe shfaqjes së sjelljeve të tjera kyçe të rrjedhshmërisë së AI. Bisedat që shfaqin iterim dhe përsosje – që do të thotë se përdoruesit nuk pranojnë vetëm përgjigjen e parë të AI, por angazhohen aktivisht në pyetje vijuese, kundërshtime dhe rregullime – treguan norma dukshëm më të larta të treguesve të tjerë të rrjedhshmërisë. Për shembull, këto biseda iterative ishin 5.6 herë më të mundshme të përfshinin përdorues që vinin në pikëpyetje arsyetimin e Claude dhe 4 herë më të mundshme të identifikonin kontekstin e munguar, duke theksuar rëndësinë e angazhimit të qëndrueshëm dhe dinamik për zhvillimin e aftësisë në AI."
  • question: "Pse përdoruesit bëhen më pak vlerësues kur krijojnë artefakte me AI?" answer: "Kërkimi i Anthropic zbuloi se kur përdoruesit angazhojnë AI për të krijuar artefakte si kode, dokumente ose mjete interaktive, ata priren të bëhen më direktivë por paradoksalisht më pak vlerësues. Kjo do të thotë se përdoruesit janë më të prirur të qartësojnë qëllimet dhe të japin shembuj, por më pak të prirur të vënë në pikëpyetje arsyetimin e modelit, të identifikojnë kontekstin e munguar ose të kontrollojnë faktet. Shpjegimet e mundshme përfshijnë pamjen e lustruar të prodhimeve të gjeneruara nga AI, e cila mund t'i bëjë përdoruesit t'u besojnë rezultateve parakohe, ose natyrën e detyrave të caktuara ku estetika funksionale mund të tejkalojë saktësinë faktike. Pavarësisht, ky model thekson një fushë kritike për përmirësimin në bashkëpunimin Njeri-AI, duke theksuar nevojën për vlerësim kritik të vazhdueshëm edhe me prodhime që duken të plota."
  • question: "Si mund të përmirësojnë individët rrjedhshmërinë e tyre në AI sipas Anthropic?" answer: "Anthropic sugjeron tre fusha kyçe që individët të përmirësojnë rrjedhshmërinë e tyre në AI. Së pari, 'qëndrimi në bisedë' do të thotë trajtimi i përgjigjeve fillestare të AI si pika fillimi, duke bërë pyetje vijuese dhe duke përsosur aktivisht prodhimet. Së dyti, 'vënia në pikëpyetje e prodhimeve të lustruara' përfshin vlerësimin kritik të artefakteve të gjeneruara nga AI për saktësinë, plotësinë dhe saktësinë logjike, edhe nëse ato duken perfekte. Së treti, 'vendosja e kushteve të bashkëpunimit' inkurajon përdoruesit të udhëzojnë në mënyrë eksplicite AI se si të ndërveprojnë, për shembull, duke i kërkuar të shpjegojë arsyetimin e tij ose të kundërshtojë supozimet. Këto praktika synojnë të nxisin një angazhim më të thellë dhe mendim kritik në ndërveprimet Njeri-AI."
  • question: "Cilat janë kufizimet e studimit të Indeksit të rrjedhshmërisë së AI?" answer: "Studimi fillestar i Indeksit të rrjedhshmërisë së AI ka disa kufizime të rëndësishme. Mostra është e kufizuar në përdoruesit e Claude.ai që angazhohen në biseda me shumë kthime gjatë një jave të vetme në janar 2026, gjë që ka të ngjarë të anojë drejt adoptuesve të hershëm dhe mund të mos përfaqësojë popullatën më të gjerë. Studimi gjithashtu vlerëson vetëm 11 nga 24 sjelljet nga Korniza 4D e rrjedhshmërisë së AI, duke u fokusuar vetëm në ndërveprimet e vëzhgueshme drejtpërdrejt brenda ndërfaqes së bisedës, duke humbur kështu sjelljet thelbësore etike dhe të përdorimit të përgjegjshëm që ndodhin jashtë saj. Për më tepër, klasifikimi binar i sjelljeve mund të lërë mënjanë demonstrime të nuancuara, dhe nuk mund të marrë në konsideratë 'sjelljet implicite' ku përdoruesit mund të vlerësojnë mendërisht prodhimet e AI pa verbalizuar vlerësimin e tyre kritik në bisedë."

Së pari rrjedhshmëria: Indeksi i AI i Anthropic për bashkëpunim të aftë

Integrimi i shpejtë i mjeteve të AI në rutinat e përditshme ka qenë thjesht mahnitës. Megjithatë, ndërsa AI bëhet një prani e gjithanshme, shfaqet një pyetje kritike: a janë përdoruesit thjesht duke adoptuar këto mjete, apo po zhvillojnë aftësitë e nevojshme për t'i shfrytëzuar ato në mënyrë efektive? Anthropic, një lider në zhvillimin e përgjegjshëm të AI, synon t'i përgjigjet kësaj me Indeksin e rrjedhshmërisë së AI të tyre inovativ, një raport i ri i dizajnuar për të matur dhe gjurmuar evolucionin e aftësive të bashkëpunimit Njeri-AI.

Raportet e mëparshme të Anthropic Education treguan se si studentët universitarë dhe edukatorët përdorin modele të avancuara si Claude për detyra që variojnë nga gjenerimi i raporteve deri te planifikimi i mësimeve. Megjithatë, këto studime u fokusuan kryesisht në çfarë po bënin përdoruesit. Indeksi i rrjedhshmërisë së AI thellohet më shumë, duke eksploruar sa mirë individët po angazhohen me AI, duke prezantuar një kornizë për të kuptuar "rrjedhshmërinë" me këtë teknologji transformuese.

Dekodimi i rrjedhshmërisë së AI: Korniza 4D

Për të sasiuar rrjedhshmërinë e AI, Anthropic bashkëpunoi me Profesorët Rick Dakan dhe Joseph Feller për të zhvilluar Kornizën 4D të rrjedhshmërisë së AI. Kjo kornizë gjithëpërfshirëse identifikon 24 sjellje specifike që shembullojnë bashkëpunim të sigurt dhe efektiv Njeri-AI. Për qëllimin e këtij studimi fillestar, Anthropic u fokusua në 11 sjellje të vëzhgueshme drejtpërdrejt brenda ndërfaqes së bisedës së Claude.ai. 13 të tjerat, të cilat përfshijnë aspekte kritike si qenia i sinqertë për rolin e AI në punë ose shqyrtimi i pasojave të prodhimeve të gjeneruara nga AI, ndodhin jashtë bisedës dhe do të vlerësohen në kërkime cilësore të ardhshme.

Duke përdorur një mjet analize që ruan privatësinë, ekipi i kërkimit studioi me përpikëri 9,830 biseda me shumë kthime në Claude.ai gjatë një periudhe 7-ditore në janar 2026. Ky grup i gjerë të dhënash ofroi një bazë të fortë për matjen e pranisë ose mungesës së 11 sjelljeve të vëzhgueshme të rrjedhshmërisë, duke çuar në krijimin e Indeksit të rrjedhshmërisë së AI. Indeksi ofron një pasqyrë të modeleve aktuale të bashkëpunimit dhe një themel për gjurmimin e evolucionit të tyre ndërsa modelet e AI përparojnë.

Fuqia e iterimit dhe përsosjes në ndërveprimin me AI

Një nga gjetjet më bindëse nga Indeksi i rrjedhshmërisë së AI është korrelacioni i fortë midis iterimit dhe përsosjes dhe pothuajse të gjitha sjelljeve të tjera të rrjedhshmërisë së AI. Studimi zbuloi se 85.7% e bisedave përfshinin përdorues që ndërtojnë mbi shkëmbimet e mëparshme për të përsosur punën e tyre, në vend që thjesht të pranonin përgjigjen fillestare. Këto biseda iterative demonstruan norma dukshëm më të larta të sjelljeve të tjera të rrjedhshmërisë, duke dyfishuar efektivisht aftësinë e parë në biseda të shpejta, vajtje-ardhje.

Ndikimi i iterimit në sjelljet e rrjedhshmërisë së AI

Treguesi i sjelljesBisedat me iterim dhe përsosje (n=8,424)Bisedat pa iterim dhe përsosje (n=1,406)Faktori i rritjes (Iterativ kundrejt Jo-iterativ)
Vënia në pikëpyetje e arsyetimit të ClaudeI lartëI ulët5.6x
Identifikimi i kontekstit të munguarI lartëI ulët4x
Qartësimi i qëllimitI lartëMesatar~2x
Specifikimi i formatitI lartëMesatar~2x
Dhënia e shembujveI lartëMesatar~2x
Sjelljet mesatare shtesë të rrjedhshmërisë2.671.332x

Tabela: Ilustron prevalencën e shtuar të sjelljeve të rrjedhshmërisë në biseda me iterim dhe përsosje.

Ky "efekt i iterimit dhe përsosjes" thekson rëndësinë e trajtimit të AI si një partner mendimi dhe jo si një delegat i thjeshtë detyrash. Përdoruesit që angazhohen aktivisht në një dialog, duke kundërshtuar dhe përsosur pyetjet e tyre, janë dukshëm më të prirur të vlerësojnë në mënyrë kritike prodhimet e AI, të vënë në pikëpyetje arsyetimin e tij dhe të identifikojnë kontekstin thelbësor të munguar. Kjo përputhet me konceptin e flukseve të punës agjentike, ku mbikëqyrja njerëzore dhe reagimet iterative çojnë në rezultate më të mira, siç eksplorohet në diskutimet rreth platformave si Flukset e Punës Agjentike të GitHub.

Shpata me dy tehe e krijimit të artefakteve me AI

Ndërsa iterimi rrit rrjedhshmërinë e përgjithshme, raporti zbuloi një model të nuancuar kur përdoruesit i kërkojnë AI të prodhojë artefakte si kode, dokumente ose mjete interaktive. Këto biseda, që përfaqësojnë 12.3% të mostrës, treguan se përdoruesit bëheshin më direktivë por çuditërisht më pak vlerësues.

Kur krijonin artefakte, përdoruesit kishin më shumë gjasa të qartësonin qëllimet e tyre (+14.7 pikë përqindjeje), të specifikonin formatet (+14.5pp) dhe të jepnin shembuj (+13.4pp). Megjithatë, kjo rritje e drejtpërdrejtësisë nuk u përkthye në një dallim më të madh. Në fakt, përdoruesit kishin dukshëm më pak gjasa të identifikonin kontekstin e munguar (-5.2pp), të kontrollonin faktet (-3.7pp) ose të vënin në pikëpyetje arsyetimin e modelit (-3.1pp). Ky trend është veçanërisht shqetësues duke pasur parasysh se detyrat komplekse, shpesh të lidhura me krijimin e artefakteve, janë aty ku modelet e AI si Claude Opus 4.6 ose madje modelet e avancuara si GPT-5 (nëse do të ishte në qarkullim, megjithëse lidhja tregon një version të ardhshëm ose hipotetik) kanë më shumë gjasa të hasin vështirësi.

Ky fenomen mund t'i atribuohet prodhimeve të lëmuara, funksionale që AI shpesh gjeneron, të cilat mund t'i mashtrojnë përdoruesit në një ndjenjë të rreme përfundimi. Qoftë duke dizajnuar një ndërfaqe përdoruesi apo duke hartuar një analizë ligjore, aftësia për të shqyrtuar në mënyrë kritike prodhimin e AI mbetet thelbësore. Ndërsa modelet e AI bëhen më të sofistikuara, rreziku i pranimit jokritik të prodhimeve që duken perfekte rritet, duke i bërë aftësitë vlerësuese më të vlefshme se kurrë.

Kultivimi i rrjedhshmërisë suaj në AI

Lajmi i mirë është se rrjedhshmëria e AI, si çdo aftësi, mund të zhvillohet. Bazuar në gjetjet e tyre, Anthropic ofron këshilla praktike për përdoruesit që kërkojnë të përmirësojnë bashkëpunimin e tyre Njeri-AI:

  1. Qëndrimi në bisedë: Përqafoni përgjigjet fillestare të AI si një pikënisje. Angazhohuni në pyetje vijuese, sfidoni supozimet dhe përsosni në mënyrë iterative kërkesat tuaja. Ky angazhim aktiv është treguesi më i fortë i sjelljeve të tjera të rrjedhshmërisë.
  2. Vënia në pikëpyetje e prodhimeve të lëmuara: Kur një model AI prodhon diçka që duket e plotë dhe e saktë, ndaloni dhe aplikoni mendimin kritik. Pyetni: A është kjo vërtet e saktë? A mungon diçka? A qëndron arsyetimi? Mos lejoni që lustra vizuale të anashkalojë vlerësimin kritik.
  3. Vendosja e kushteve të bashkëpunimit: Definojeni në mënyrë proaktive se si dëshironi që AI të ndërveprojë me ju. Udhëzimet eksplicite si "Kundërshto nëse supozimet e mia janë të gabuara," "Më shpjego arsyetimin tënd," ose "Më thuaj për çfarë je i pasigurt" mund të ndryshojnë thelbësisht dinamikën, duke nxitur një bashkëpunim më transparent dhe të fortë.

Një bazë për zhvillimin e ardhshëm të aftësive të AI

Është e rëndësishme të pranohen kufizimet e këtij studimi fillestar. Mostra, e përbërë nga përdorues të Claude.ai me shumë kthime nga fillimi i vitit 2026, ka të ngjarë të anojë drejt adoptuesve të hershëm tashmë të rehatshëm me AI, jo popullatës më të gjerë. Studimi gjithashtu fokusohet vetëm në sjelljet e vëzhgueshme brenda ndërfaqes së bisedës, duke lënë mënjanë sjelljet thelbësore etike dhe të përdorimit të përgjegjshëm që ndodhin jashtë saj. Këto paralajmërime nënkuptojnë se Indeksi i rrjedhshmërisë së AI ofron një bazë për këtë popullatë specifike dhe një pikënisje për kërkime më të thella, afatgjata.

Pavarësisht këtyre kufizimeve, Indeksi i rrjedhshmërisë së AI shënon një hap të rëndësishëm drejt kuptimit dhe nxitjes së bashkëpunimit efektiv Njeri-AI. Ndërsa mjetet e AI vazhdojnë të evoluojnë, fuqizimi i përdoruesve me aftësitë për t'u angazhuar në mënyrë kritike, iterative dhe të përgjegjshme do të jetë thelbësor për realizimin e potencialit të plotë të kësaj teknologjie, duke zbutur rreziqet e saj. Ky raport fillestar hap rrugën për kërkime të ardhshme, duke premtuar të udhëzojë si përdoruesit ashtu edhe zhvilluesit në ndërtimin e një të ardhmeje më të rrjedhshme dhe më të dobishme të mundësuar nga AI.

Pyetjet e bëra shpesh

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Qëndroni të përditësuar

Merrni lajmet më të fundit të AI në email.

Ndaj