Code Velocity
Výzkum AI

Index plynulosti AI: Měření dovedností spolupráce mezi lidmi a AI

·7 min čtení·Anthropic·Původní zdroj
Sdílet
Grafika ilustrující koncept plynulosti AI a spolupráce mezi lidmi a AI s datovými body.

title: "Index plynulosti AI: Měření dovedností spolupráce mezi lidmi a AI" slug: "fluency-index" date: "2026-03-03" lang: "cs" source: "https://www.anthropic.com/research/AI-fluency-index" category: "Výzkum AI" keywords:

  • Index plynulosti AI
  • Výzkum Anthropic
  • Spolupráce mezi lidmi a AI
  • Rozvoj dovedností s AI
  • Iterace a zpřesňování
  • Tvorba artefaktů pomocí AI
  • Kritické hodnocení AI
  • 4D rámec plynulosti AI
  • Používání Claude.ai
  • Chování uživatelů AI
  • Zodpovědné používání AI
  • Znalost AI meta_description: "Nový Index plynulosti AI od Anthropic měří klíčové dovednosti spolupráce mezi lidmi a AI a zdůrazňuje důležitost iterace a kritického hodnocení pro efektivní využití AI." image: "/images/articles/fluency-index.png" image_alt: "Grafika ilustrující koncept plynulosti AI a spolupráce mezi lidmi a AI s datovými body." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Co je Index plynulosti AI od Anthropic?" answer: "Index plynulosti AI od Anthropic je nová metrika vyvinutá společností Anthropic k posouzení, jak dobře si jednotlivci osvojují dovednosti pro efektivní používání nástrojů AI. Přesahuje pouhé přijetí a index sleduje 11 přímo pozorovatelných chování, která představují bezpečnou a efektivní spolupráci mezi lidmi a AI, založenou na 4D rámci plynulosti AI. Jeho cílem je poskytnout základní měření uživatelské zdatnosti a pomoci pochopit, jak se tyto kritické dovednosti vyvíjejí, jak se technologie AI více integruje do každodenního života. Počáteční studie analyzovala téměř 10 000 konverzací na Claude.ai, aby identifikovala klíčové vzorce v interakci uživatelů a rozvoji dovedností."
  • question: "Jak je plynulost AI měřena společností Anthropic?" answer: "Plynulost AI se měří sledováním přítomnosti nebo nepřítomnosti 11 specifických behaviorálních indikátorů během interakcí uživatelů s modelem Claude na Claude.ai. Tyto indikátory jsou odvozeny z širšího 4D rámce plynulosti AI, který definuje 24 chování bezpečné a efektivní spolupráce mezi lidmi a AI. Pro počáteční studii Anthropic využil nástroj pro analýzu chránící soukromí, aby prozkoumal 9 830 vícekolových konverzací během 7denního období. Chování jako 'iterace a zpřesňování,' 'zpochybňování odůvodnění' a 'identifikace chybějícího kontextu' bylo pozorováno a klasifikováno jako přítomné nebo nepřítomné v každé konverzaci, což poskytlo kvantitativní základ pro posouzení znalosti AI."
  • question: "Co je to 'efekt iterace a zpřesňování' v plynulosti AI?" answer: " 'Efekt iterace a zpřesňování' odkazuje na silnou korelaci zjištěnou mezi uživateli, kteří navazují na předchozí výměny, aby zpřesnili svou práci s AI, a projevováním dalších klíčových chování plynulosti AI. Konverzace vykazující iteraci a zpřesňování – což znamená, že uživatelé nepřijímají pouze první odpověď AI, ale aktivně se zapojují do doplňujících otázek, námitek a úprav – vykazovaly výrazně vyšší míru dalších indikátorů plynulosti. Například tyto iterativní konverzace byly 5,6krát pravděpodobnější, že zahrnovaly uživatele zpochybňující odůvodnění Claude a 4krát pravděpodobnější, že identifikovaly chybějící kontext, což podtrhuje důležitost trvalé, dynamické angažovanosti pro rozvoj znalosti AI."
  • question: "Proč jsou uživatelé méně kritičtí při vytváření artefaktů s AI?" answer: "Výzkum společnosti Anthropic zjistil, že když uživatelé zapojí AI do vytváření artefaktů, jako je kód, dokumenty nebo interaktivní nástroje, mají tendenci být více direktivní, ale paradoxně méně kritičtí. To znamená, že uživatelé s větší pravděpodobností objasňují cíle a poskytují příklady, ale s menší pravděpodobností zpochybňují odůvodnění modelu, identifikují chybějící kontext nebo ověřují fakta. Možná vysvětlení zahrnují 'uhledný' vzhled výstupů generovaných AI, který by mohl vést uživatele k předčasné důvěře ve výsledky, nebo povahu určitých úkolů, kde funkční estetika může převážit nad faktickou přesností. Bez ohledu na to, tento vzorec zdůrazňuje kritickou oblast pro zlepšení spolupráce mezi lidmi a AI, zdůrazňuje potřebu neustálého kritického hodnocení i u zdánlivě kompletních výstupů."
  • question: "Jak mohou jednotlivci zlepšit svou plynulost v AI podle společnosti Anthropic?" answer: "Anthropic navrhuje tři klíčové oblasti, jak mohou jednotlivci zlepšit svou plynulost v AI. Zaprvé, 'zůstat v konverzaci' znamená brát počáteční odpovědi AI jako výchozí body, klást doplňující otázky a aktivně zpřesňovat výstupy. Zadruhé, 'zpochybňovat uhledné výstupy' zahrnuje kritické hodnocení artefaktů generovaných AI z hlediska přesnosti, úplnosti a logické správnosti, i když se zdají být perfektní. Zatřetí, 'stanovení podmínek spolupráce' povzbuzuje uživatele k explicitnímu instruování AI, jak má interagovat, například tím, že ji požádají, aby vysvětlila své zdůvodnění nebo zpochybnila předpoklady. Tyto postupy si kladou za cíl podpořit hlubší zapojení a kritické myšlení v interakcích mezi lidmi a AI."
  • question: "Jaká jsou omezení studie Indexu plynulosti AI?" answer: "Počáteční studie Indexu plynulosti AI má několik důležitých omezení. Vzorek je omezen na uživatele Claude.ai zapojené do vícekolových konverzací během jednoho týdne v lednu 2026, což pravděpodobně zkresluje směrem k 'early adopters' a nemusí představovat širší populaci. Studie také hodnotí pouze 11 z 24 chování z 4D rámce plynulosti AI, přičemž se zaměřuje výhradně na přímo pozorovatelné interakce v rámci chatovacího rozhraní, a tak opomíjí klíčové etické a odpovědné způsoby použití, které probíhají externě. Dále, binární klasifikace chování by mohla přehlížet nuance v projevech a nemůže zohlednit 'implicitní chování', kdy uživatelé mohou mentálně vyhodnocovat výstupy AI, aniž by své kritické hodnocení verbalizovali v chatu."

Plynulost na prvním místě: Index AI od Anthropic pro zručnou spolupráci

Rychlá integrace nástrojů AI do každodenního života je ohromující. Přesto, jak se AI stává všudypřítomnou, vyvstává klíčová otázka: uživatelé tyto nástroje pouze přijímají, nebo si osvojují potřebné dovednosti k jejich efektivnímu využití? Anthropic, lídr v oblasti zodpovědného vývoje AI, se snaží na tuto otázku odpovědět svým průkopnickým Indexem plynulosti AI, novou zprávou navrženou k měření a sledování vývoje dovedností spolupráce mezi lidmi a AI.

Předchozí zprávy Anthropic o vzdělávání osvětlily, jak vysokoškolští studenti a pedagogové využívají pokročilé modely jako Claude pro úkoly sahající od generování zpráv po plánování výuky. Tyto studie se však primárně zaměřovaly na co uživatelé dělali. Index plynulosti AI jde hlouběji a zkoumá, jak dobře se jednotlivci zapojují do práce s AI, a zavádí rámec pro pochopení "plynulosti" s touto transformativní technologií.

Dekódování plynulosti AI: 4D rámec

Pro kvantifikaci plynulosti AI Anthropic spolupracoval s profesory Rickem Dakanem a Josephem Fellerem na vývoji 4D rámce plynulosti AI. Tento komplexní rámec identifikuje 24 specifických chování, která jsou příkladem bezpečné a efektivní spolupráce mezi lidmi a AI. Pro účely této počáteční studie se Anthropic zaměřil na 11 chování přímo pozorovatelných v chatovacím rozhraní Claude.ai. Zbývajících 13, které zahrnují kritické aspekty, jako je poctivost ohledně role AI v práci nebo zvažování důsledků výstupu generovaného AI, probíhá mimo chat a bude posouzeno v budoucím kvalitativním výzkumu.

Pomocí nástroje pro analýzu chránícího soukromí výzkumný tým pečlivě prostudoval 9 830 vícekolových konverzací na Claude.ai během 7denního období v lednu 2026. Tento rozsáhlý datový soubor poskytl robustní základ pro měření přítomnosti nebo nepřítomnosti 11 pozorovatelných chování plynulosti, což vedlo k vytvoření Indexu plynulosti AI. Index nabízí přehled o současných vzorcích spolupráce a základ pro sledování jejich vývoje s pokrokem modelů AI.

Síla iterace a zpřesňování v interakci s AI

Jedním z nejpřesvědčivějších zjištění Indexu plynulosti AI je silná korelace mezi iterací a zpřesňováním a téměř všemi ostatními chováními plynulosti AI. Studie odhalila, že 85,7 % konverzací zahrnovalo uživatele, kteří navazovali na předchozí výměny, aby zpřesnili svou práci, spíše než aby jednoduše přijali počáteční odpověď. Tyto iterativní konverzace projevovaly podstatně vyšší míru jiných chování plynulosti, čímž se efektivně zdvojnásobila zdatnost pozorovaná v rychlých, tam a zpět chatech.

Vliv iterace na chování plynulosti AI

Behaviorální indikátorKonverzace s iterací a zpřesňováním (n=8,424)Konverzace bez iterace a zpřesňování (n=1,406)Faktor zvýšení (Iterativní vs. Neiterativní)
Zpochybňování odůvodnění modelu ClaudeVysokéNízké5.6x
Identifikace chybějícího kontextuVysokéNízké4x
Objasňování cíleVysokéStřední~2x
Specifikace formátuVysokéStřední~2x
Poskytování příkladůVysokéStřední~2x
Průměrné dodatečné chování plynulosti2.671.332x

Tabulka: Ilustrující zvýšený výskyt chování plynulosti v konverzacích s iterací a zpřesňováním.

Tento "efekt iterace a zpřesňování" podtrhuje důležitost vnímání AI jako myšlenkového partnera, nikoli pouhého delegáta úkolů. Uživatelé, kteří se aktivně zapojují do dialogu, vznášejí námitky a zpřesňují své dotazy, s výrazně větší pravděpodobností kriticky hodnotí výstupy AI, zpochybňují její odůvodnění a identifikují klíčový chybějící kontext. To je v souladu s konceptem agentních pracovních postupů, kde lidský dohled a iterativní zpětná vazba vedou k lepším výsledkům, jak bylo prozkoumáno v diskusích o platformách, jako jsou GitHub Agentic Workflows.

Dvojsečná zbraň tvorby AI artefaktů

Zatímco iterace zvyšuje celkovou plynulost, zpráva odhalila nuancovaný vzorec, když uživatelé vyzývají AI k produkci artefaktů, jako je kód, dokumenty nebo interaktivní nástroje. Tyto konverzace, představující 12,3 % vzorku, ukázaly, že uživatelé se stávají direktivnějšími, ale překvapivě méně kritickými.

Při vytváření artefaktů uživatelé častěji objasňovali své cíle (+14,7 procentních bodů), specifikovali formáty (+14,5 pp) a poskytovali příklady (+13,4 pp). Toto zvýšené direktivní chování se však nepromítlo do větší rozlišovací schopnosti. Ve skutečnosti uživatelé méně často identifikovali chybějící kontext (-5,2 pp), ověřovali fakta (-3,7 pp) nebo zpochybňovali odůvodnění modelu (-3,1 pp). Tento trend je obzvláště znepokojující vzhledem k tomu, že složité úkoly, často spojené s tvorbou artefaktů, jsou místem, kde se modely AI jako Claude Opus 4.6 nebo dokonce pokročilé modely jako GPT-5 (pokud by byly v oběhu, ačkoliv odkaz směřuje k budoucí nebo hypotetické verzi) s největší pravděpodobností potýkají s obtížemi.

Tento jev lze připsat uhledným, funkčně vypadajícím výstupům, které AI často generuje a které by mohly uživatele ukolébat do falešného pocitu dokončení. Ať už jde o návrh uživatelského rozhraní nebo sepisování právní analýzy, schopnost kriticky zkoumat výstup AI zůstává prvořadá. S tím, jak se modely AI stávají sofistikovanějšími, roste riziko nekritického přijímání zdánlivě dokonalých výstupů, což činí hodnotící dovednosti cennějšími než kdy dříve.

Rozvíjení vlastní plynulosti v AI

Dobrou zprávou je, že plynulost v AI, stejně jako jakoukoli dovednost, lze rozvíjet. Na základě svých zjištění Anthropic nabízí praktické rady pro uživatele, kteří chtějí zlepšit svou spolupráci mezi lidmi a AI:

  1. Zůstat v konverzaci: Přijímejte počáteční odpovědi AI jako výchozí bod. Zapojujte se do doplňujících otázek, zpochybňujte předpoklady a iterativně zpřesňujte své požadavky. Toto aktivní zapojení je nejsilnějším prediktorem dalších chování plynulosti.
  2. Zpochybňovat uhledné výstupy: Když model AI vygeneruje něco, co vypadá kompletně a přesně, zastavte se a aplikujte kritické myšlení. Zeptejte se: Je to skutečně přesné? Něco nechybí? Drží zdůvodnění? Nenechte, aby vizuální uhlednost přebila kritické hodnocení.
  3. Stanovení podmínek spolupráce: Aktivně definujte, jak chcete, aby s vámi AI interagovala. Explicitní instrukce jako 'Pokud jsou mé předpoklady chybné, oponujte mi,' 'Proveďte mě svým zdůvodněním' nebo 'Řekněte mi, v čem si nejste jisti' mohou zásadně změnit dynamiku a podpořit transparentnější a robustnější spolupráci.

Základ pro budoucí rozvoj dovedností v AI

Je důležité uznat omezení této počáteční studie. Vzorek, zahrnující uživatele Claude.ai zapojené do vícekolových konverzací z počátku roku 2026, pravděpodobně inklinuje k raným osvojitelům, kteří jsou již s AI spokojeni, nikoli k širší populaci. Studie se také zaměřuje výhradně na pozorovatelná chování v rámci chatovacího rozhraní, přičemž opomíjí klíčové etické a odpovědné způsoby použití, které probíhají externě. Tato upozornění znamenají, že Index plynulosti AI poskytuje základ pro tuto konkrétní populaci a výchozí bod pro hlubší, longitudinální výzkum.

Navzdory těmto omezením představuje Index plynulosti AI významný krok k pochopení a podpoře efektivní spolupráce mezi lidmi a AI. Vzhledem k tomu, že nástroje AI se neustále vyvíjejí, posílení uživatelů dovednostmi kritického, iterativního a odpovědného zapojení bude klíčové pro realizaci plného potenciálu této technologie a zároveň pro zmírnění jejích rizik. Tato počáteční zpráva připravuje půdu pro budoucí výzkum a slibuje vést jak uživatele, tak vývojáře k budování plynulejší a přínosnější budoucnosti poháněné AI.

Často kladené dotazy

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Buďte v obraze

Dostávejte nejnovější AI zprávy do schránky.

Sdílet