Code Velocity
AI istraživanje

AI indeks tečnosti: Merenje veština saradnje između ljudi i veštačke inteligencije

·7 min čitanja·Anthropic·Originalni izvor
Podeli
Grafika koja ilustruje koncept AI tečnosti i saradnje između ljudi i AI, sa podacima.

title: "AI indeks tečnosti: Merenje veština saradnje između ljudi i veštačke inteligencije" slug: "fluency-index" date: "2026-03-03" lang: "sr" source: "https://www.anthropic.com/research/AI-fluency-index" category: "AI istraživanje" keywords:

  • AI indeks tečnosti
  • Antropik istraživanje
  • Saradnja između ljudi i AI
  • Razvoj AI veština
  • Iteracija i usavršavanje
  • Kreiranje AI artefakata
  • Kritička evaluacija AI
  • 4D Okvir AI tečnosti
  • Korišćenje Claude.ai
  • Ponašanje korisnika AI
  • Odgovorno korišćenje AI
  • AI stručnost meta_description: "Antropikov novi AI indeks tečnosti meri ključne veštine saradnje između ljudi i veštačke inteligencije, naglašavajući važnost iteracije i kritičke evaluacije za efikasnu upotrebu AI." image: "/images/articles/fluency-index.png" image_alt: "Grafika koja ilustruje koncept AI tečnosti i saradnje između ljudi i AI, sa podacima." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Šta je Antropikov AI indeks tečnosti?" answer: "Antropikov AI indeks tečnosti je nova metrika koju je razvio Anthropic za procenu koliko dobro pojedinci razvijaju veštine za efikasno korišćenje AI alata. Idući dalje od samog usvajanja, indeks prati 11 direktno uočljivih ponašanja koja predstavljaju bezbednu i efikasnu saradnju između ljudi i AI, zasnovanu na 4D Okviru AI tečnosti. Cilj mu je da pruži osnovno merenje stručnosti korisnika, pomažući da se razume kako se ove kritične veštine razvijaju kako AI tehnologija postaje sve više integrisana u svakodnevni život. Početna studija analizirala je skoro 10.000 razgovora na Claude.ai kako bi identifikovala ključne obrasce u interakciji korisnika i razvoju veština."
  • question: "Kako Anthropic meri AI tečnost?" answer: "AI tečnost se meri praćenjem prisustva ili odsustva 11 specifičnih bihevioralnih indikatora tokom interakcija korisnika sa Claude-om na Claude.ai. Ovi indikatori su izvedeni iz šireg 4D Okvira AI tečnosti, koji definiše 24 ponašanja bezbedne i efikasne saradnje između ljudi i AI. Za početnu studiju, Anthropic je koristio alat za analizu koji čuva privatnost kako bi ispitao 9.830 višestrukih razgovora tokom 7-dnevnog perioda. Ponašanja kao što su 'iteracija i usavršavanje', 'dovođenje u pitanje razmišljanja' i 'identifikacija nedostajućeg konteksta' su posmatrana i klasifikovana kao prisutna ili odsutna unutar svakog razgovora, pružajući kvantitativnu osnovu za AI stručnost."
  • question: "Šta je 'efekat iteracije i usavršavanja' u AI tečnosti?" answer: "Efekat 'iteracije i usavršavanja' odnosi se na jaku korelaciju pronađenu između korisnika koji nadograđuju prethodne razmene kako bi usavršili svoj rad sa AI, i prikazivanja drugih ključnih ponašanja AI tečnosti. Razgovori koji su pokazivali iteraciju i usavršavanje – što znači da korisnici ne prihvataju samo prvi AI odgovor već se aktivno uključuju u naknadna pitanja, primedbe i prilagođavanja – pokazali su značajno veće stope drugih indikatora tečnosti. Na primer, ovi iterativni razgovori su bili 5.6 puta verovatniji da uključuju korisnike koji dovode u pitanje Claude-ovo razmišljanje i 4 puta verovatniji da identifikuju nedostajući kontekst, naglašavajući važnost stalnog, dinamičnog angažmana za razvoj AI stručnosti."
  • question: "Zašto korisnici postaju manje evaluativni kada kreiraju artefakte sa AI?" answer: "Antropikovo istraživanje je otkrilo da kada korisnici angažuju AI za kreiranje artefakata kao što su kod, dokumenta ili interaktivni alati, oni teže da postanu direktivniji, ali paradoksalno manje evaluativni. To znači da je verovatnije da će korisnici pojasniti ciljeve i pružiti primere, ali manje je verovatno da će dovesti u pitanje razmišljanje modela, identifikovati nedostajući kontekst ili proveriti činjenice. Moguća objašnjenja uključuju uglađen izgled AI-generisanih izlaza, što bi moglo navesti korisnike da preuranjeno veruju rezultatima, ili prirodu određenih zadataka gde funkcionalna estetika može prevagnuti nad činjeničnom preciznošću. Bez obzira na to, ovaj obrazac ističe kritičnu oblast za poboljšanje u saradnji između ljudi i AI, naglašavajući potrebu za kontinuiranom kritičkom procenom čak i sa naizgled kompletnim izlazima."
  • question: "Kako pojedinci mogu poboljšati svoju AI tečnost prema Anthropicu?" answer: "Anthropic predlaže tri ključne oblasti za pojedince da poboljšaju svoju AI tečnost. Prvo, 'ostajanje u razgovoru' znači tretiranje početnih AI odgovora kao polaznih tačaka, postavljanje naknadnih pitanja i aktivno usavršavanje izlaza. Drugo, 'dovođenje u pitanje uglađenih izlaza' uključuje kritičku evaluaciju AI-generisanih artefakata za tačnost, potpunost i logičku ispravnost, čak i ako izgledaju savršeno. Treće, 'postavljanje uslova saradnje' podstiče korisnike da eksplicitno upute AI kako da komunicira, na primer, tražeći od nje da objasni svoje razmišljenje ili da se usprotivi pretpostavkama. Ove prakse imaju za cilj podsticanje dubljeg angažmana i kritičkog razmišljanja u interakcijama između ljudi i AI."
  • question: "Koja su ograničenja studije AI indeksa tečnosti?" answer: "Početna studija AI indeksa tečnosti ima nekoliko važnih ograničenja. Uzorak je ograničen na korisnike Claude.ai koji su se uključili u višestruke razgovore tokom jedne sedmice u januaru 2026. godine, što verovatno favorizuje rane usvajače i možda ne predstavlja širu populaciju. Studija takođe procenjuje samo 11 od 24 ponašanja iz 4D Okvira AI tečnosti, fokusirajući se isključivo na direktno uočljive interakcije unutar chat interfejsa, čime se propuštaju ključna etička i odgovorna ponašanja pri korišćenju koja se dešavaju eksterno. Nadalje, binarna klasifikacija ponašanja može prevideti nijansirane demonstracije, i ne može uzeti u obzir 'implicitna ponašanja' gde korisnici mogu mentalno procenjivati AI izlaze bez verbalizovanja svoje kritičke procene u chatu."

Tečnost pre svega: Antropikov AI indeks za veštu saradnju

Brza integracija AI alata u svakodnevnu rutinu bila je ništa manje nego zapanjujuća. Ipak, kako AI postaje sveprisutna, pojavljuje se ključno pitanje: da li korisnici samo usvajaju ove alate, ili razvijaju neophodne veštine da ih efikasno koriste? Anthropic, lider u odgovornom razvoju AI, nastoji da odgovori na ovo pitanje svojim revolucionarnim AI indeksom tečnosti, novim izveštajem osmišljenim da meri i prati evoluciju veština saradnje između ljudi i veštačke inteligencije.

Prethodni Antropikovi obrazovni izveštaji osvetlili su kako univerzitetski studenti i edukatori koriste napredne modele poput Claude-a za zadatke u rasponu od generisanja izveštaja do planiranja lekcija. Međutim, ove studije su se prvenstveno fokusirale na šta su korisnici radili. AI indeks tečnosti ide dublje, istražujući koliko dobro pojedinci sarađuju sa AI, uvodeći okvir za razumevanje "tečnosti" sa ovom transformativnom tehnologijom.

Dekodiranje AI tečnosti: 4D Okvir

Da bi kvantifikovao AI tečnost, Anthropic je sarađivao sa profesorima Rick Dakanom i Joseph Fellerom na razvoju 4D Okvira AI tečnosti. Ovaj sveobuhvatni okvir identifikuje 24 specifična ponašanja koja ilustruju bezbednu i efikasnu saradnju između ljudi i AI. Za potrebe ove početne studije, Anthropic se fokusirao na 11 ponašanja direktno uočljivih unutar Claude.ai chat interfejsa. Preostalih 13, koje uključuju kritične aspekte poput iskrenosti u vezi sa ulogom AI u radu ili razmatranja posledica AI-generisanog izlaza, dešavaju se izvan chata i biće procenjene u budućim kvalitativnim istraživanjima.

Koristeći alat za analizu koji čuva privatnost, istraživački tim je detaljno proučio 9.830 višestrukih razgovora na Claude.ai tokom 7-dnevnog perioda u januaru 2026. godine. Ovaj opsežni skup podataka pružio je robustnu osnovu za merenje prisustva ili odsustva 11 uočljivih ponašanja tečnosti, što je dovelo do stvaranja AI indeksa tečnosti. Indeks nudi snimak trenutnih obrazaca saradnje i osnovu za praćenje njihove evolucije kako AI modeli napreduju.

Moć iteracije i usavršavanja u interakciji sa AI

Jedan od najupečatljivijih nalaza iz AI indeksa tečnosti je snažna korelacija između iteracije i usavršavanja i gotovo svih ostalih ponašanja AI tečnosti. Studija je otkrila da je 85.7% razgovora uključivalo korisnike koji su nadograđivali prethodne razmene kako bi usavršili svoj rad, umesto da jednostavno prihvate početni odgovor. Ovi iterativni razgovori pokazali su znatno veće stope drugih ponašanja tečnosti, efektivno udvostručavajući stručnost primećenu u brzim, povratnim chatovima.

Uticaj iteracije na ponašanja AI tečnosti

Indikator ponašanjaRazgovori sa iteracijom i usavršavanjem (n=8,424)Razgovori bez iteracije i usavršavanja (n=1,406)Faktor povećanja (Iterativni vs. Neiterativni)
Dovođenje u pitanje Claude-ovog razmišljanjaVisokoNisko5.6x
Identifikacija nedostajućeg kontekstaVisokoNisko4x
Pojasnjavanje ciljaVisokoSrednje~2x
Specificiranje formataVisokoSrednje~2x
Pružanje primeraVisokoSrednje~2x
Prosečna dodatna ponašanja tečnosti2.671.332x

Tabela: Ilustruje povećanu učestalost ponašanja tečnosti u razgovorima sa iteracijom i usavršavanjem.

Ovaj "efekat iteracije i usavršavanja" naglašava važnost tretiranja AI kao partnera za razmišljanje, a ne kao puki delegat zadataka. Korisnici koji se aktivno uključuju u dijalog, postavljajući primedbe i usavršavajući svoje upite, znatno su verovatnije da će kritički proceniti AI izlaze, dovesti u pitanje njeno razmišljanje i identifikovati ključni nedostajući kontekst. Ovo se poklapa sa konceptom agentnih tokova rada, gde ljudski nadzor i iterativne povratne informacije dovode do boljih rezultata, kao što je istraženo u diskusijama oko platformi kao što su GitHub Agentic Workflows.

Dvosekli mač kreiranja AI artefakata

Dok iteracija podstiče ukupnu tečnost, izveštaj je otkrio nijansiran obrazac kada korisnici podstiču AI da proizvodi artefakte kao što su kod, dokumenta ili interaktivni alati. Ovi razgovori, koji predstavljaju 12.3% uzorka, pokazali su da korisnici postaju više direktivni, ali iznenađujuće manje evaluativni.

Prilikom kreiranja artefakata, korisnici su češće pojašnjavali svoje ciljeve (+14.7 procentnih poena), specificirali formate (+14.5pp) i pružali primere (+13.4pp). Međutim, ova povećana direktivnost nije rezultirala većom razboritošću. U stvari, korisnici su bili znatno manje skloni da identifikuju nedostajući kontekst (-5.2pp), provere činjenice (-3.7pp) ili dovedu u pitanje razmišljanje modela (-3.1pp). Ovaj trend je posebno zabrinjavajući s obzirom na to da su složeni zadaci, često povezani sa kreiranjem artefakata, mesta gde se AI modeli poput Claude Opus 4.6 ili čak napredni modeli poput GPT-5 (kada bi bio dostupan, iako veza ukazuje na buduću ili hipotetičku verziju) najverovatnije susreću sa poteškoćama.

Ovaj fenomen bi se mogao pripisati uglađenim, funkcionalnim izlazima koje AI često generiše, što bi moglo da uljuljka korisnike u lažni osećaj potpunosti. Bilo da se radi o dizajniranju korisničkog interfejsa ili izradi pravne analize, sposobnost kritičkog ispitivanja AI izlaza ostaje od suštinskog značaja. Kako AI modeli postaju sofisticiraniji, rizik od nekritičkog prihvatanja naizgled savršenih izlaza raste, čineći evaluativne veštine vrednijim nego ikad.

Razvijanje sopstvene AI tečnosti

Dobra vest je da se AI tečnost, kao i svaka veština, može razviti. Na osnovu svojih nalaza, Anthropic nudi praktične savete za korisnike koji žele da poboljšaju svoju saradnju sa veštačkom inteligencijom:

  1. Ostajanje u razgovoru: Prihvatite početne AI odgovore kao polaznu tačku. Uključite se u naknadna pitanja, osporavajte pretpostavke i iterativno usavršavajte svoje zahteve. Ovo aktivno angažovanje je najjači prediktor drugih ponašanja tečnosti.
  2. Dovođenje u pitanje uglađenih izlaza: Kada AI model proizvede nešto što izgleda kompletno i tačno, zastanite i primenite kritičko razmišljanje. Zapitajte se: Da li je ovo zaista tačno? Da li nešto nedostaje? Da li rezonovanje stoji? Ne dozvolite da vizuelna uglađenost nadjača kritičku evaluaciju.
  3. Postavljanje uslova saradnje: Proaktivno definišite kako želite da AI komunicira sa vama. Eksplicitna uputstva kao što su 'Usprotivi se ako su moje pretpostavke pogrešne', 'Provedi me kroz svoje rezonovanje' ili 'Reci mi u šta nisi siguran/na' mogu fundamentalno promeniti dinamiku, podstičući transparentniju i robusniju saradnju.

Osnova za budući razvoj AI veština

Važno je prepoznati ograničenja ove početne studije. Uzorak, koji obuhvata korisnike Claude.ai sa višestrukim razgovorima iz ranog 2026. godine, verovatno je usmeren ka ranim usvajačima koji su već komforni sa AI, a ne ka široj populaciji. Studija se takođe isključivo fokusira na uočljiva ponašanja unutar chat interfejsa, izostavljajući ključna etička i odgovorna ponašanja pri korišćenju koja se dešavaju eksterno. Ove napomene znače da AI indeks tečnosti pruža osnovu za ovu specifičnu populaciju i polaznu tačku za dublje, longitudinalno istraživanje.

Uprkos ovim ograničenjima, AI indeks tečnosti predstavlja značajan korak ka razumevanju i podsticanju efikasne saradnje između ljudi i veštačke inteligencije. Kako se AI alati nastavljaju razvijati, osnaživanje korisnika veštinama da se angažuju kritički, iterativno i odgovorno biće centralno za ostvarivanje punog potencijala ove tehnologije, istovremeno ublažavajući njene rizike. Ovaj početni izveštaj postavlja scenu za buduća istraživanja, obećavajući da će voditi i korisnike i programere u izgradnji fluidnije i korisnije budućnosti pokretane veštačkom inteligencijom.

Često postavljana pitanja

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Будите у току

Примајте најновије AI вести на имејл.

Podeli