Code Velocity
Recerca en IA

Índex de fluïdesa de la IA: mesurant les habilitats de col·laboració humà-IA

·7 min de lectura·Anthropic·Font original
Compartir
Gràfic que il·lustra el concepte de fluïdesa de la IA i la col·laboració humà-IA, amb punts de dades.

Fluïdesa primer: l'índex d'IA d'Anthropic per a la col·laboració qualificada

La ràpida integració de les eines d'IA a les rutines diàries ha estat, senzillament, sorprenent. No obstant això, a mesura que la IA esdevé una presència omnipresent, sorgeix una qüestió crítica: els usuaris només estan adoptant aquestes eines, o estan desenvolupant les habilitats necessàries per aprofitar-les eficaçment? Anthropic, líder en el desenvolupament d'IA responsable, pretén respondre a aquesta pregunta amb el seu innovador Índex de Fluïdesa de la IA, un nou informe dissenyat per mesurar i seguir l'evolució de les habilitats de col·laboració humà-IA.

Informes anteriors d'Educació d'Anthropic van posar de manifest com estudiants universitaris i educadors utilitzen models avançats com Claude per a tasques que van des de la generació d'informes fins a la planificació de lliçons. No obstant això, aquests estudis es van centrar principalment en què feien els usuaris. L'Índex de Fluïdesa de la IA aprofundeix, explorant com de bé les persones interactuen amb la IA, introduint un marc per entendre la "fluïdesa" amb aquesta tecnologia transformadora.

Descodificant la fluïdesa de la IA: el marc 4D

Per quantificar la fluïdesa de la IA, Anthropic va col·laborar amb els professors Rick Dakan i Joseph Feller per desenvolupar el Marc de Fluïdesa de la IA 4D. Aquest marc complet identifica 24 comportaments específics que exemplifiquen una col·laboració humà-IA segura i efectiva. Per als propòsits d'aquest estudi inicial, Anthropic es va centrar en 11 comportaments directament observables dins de la interfície de xat de Claude.ai. Els 13 restants, que inclouen aspectes crítics com ser honest sobre el paper de la IA en el treball o considerar les conseqüències de la sortida generada per la IA, ocorren fora del xat i seran avaluats en futures recerques qualitatives.

Utilitzant una eina d'anàlisi que preserva la privadesa, l'equip de recerca va estudiar meticulosament 9.830 converses de diverses rondes a Claude.ai durant un període de 7 dies el gener de 2026. Aquest conjunt de dades extens va proporcionar una base de referència sòlida per mesurar la presència o absència dels 11 comportaments de fluïdesa observables, el que va portar a la creació de l'Índex de Fluïdesa de la IA. L'índex ofereix una instantània dels patrons de col·laboració actuals i una base per seguir la seva evolució a mesura que els models d'IA avancen.

El poder de la iteració i el refinament en la interacció amb la IA

Una de les troballes més convincents de l'Índex de Fluïdesa de la IA és la forta correlació entre la iteració i el refinament i gairebé tots els altres comportaments de fluïdesa de la IA. L'estudi va revelar que el 85,7% de les converses implicaven usuaris que es basaven en intercanvis anteriors per refinar el seu treball, en lloc de simplement acceptar la resposta inicial. Aquestes converses iteratives van demostrar taxes substancialment més altes d'altres comportaments de fluïdesa, duplicant efectivament la competència observada en xats ràpids i de vaivé.

Impacte de la iteració en els comportaments de fluïdesa de la IA

Indicador de ComportamentConverses amb Iteració i Refinament (n=8,424)Converses sense Iteració i Refinament (n=1,406)Factor d'Increment (Iteratiu vs. No Iteratiu)
Qüestionant el Raonament de ClaudeAltBaix5.6x
Identificant Context FaltantAltBaix4x
Aclarint l'ObjectiuAltMitjà~2x
Especificant el FormatAltMitjà~2x
Proporcionant ExemplesAltMitjà~2x
Comportaments Addicionals de Fluïdesa Mitjana2.671.332x

Taula: Il·lustració de la major prevalença dels comportaments de fluïdesa en converses amb iteració i refinament.

Aquest 'efecte d'iteració i refinament' subratlla la importància de tractar la IA com un soci de pensament en lloc d'un simple delegat de tasques. Els usuaris que s'impliquen activament en un diàleg, qüestionant i refinant les seves consultes, tenen significativament més probabilitats d'avaluar críticament els resultats de la IA, qüestionar el seu raonament i identificar un context crucial que falta. Això s'alinea amb el concepte de fluxos de treball agentius, on la supervisió humana i la retroalimentació iterativa impulsen millors resultats, tal com s'explora en discussions al voltant de plataformes com GitHub Agentic Workflows.

L'espasa de doble tall de la creació d'artefactes amb IA

Tot i que la iteració augmenta la fluïdesa general, l'informe va descobrir un patró matisat quan els usuaris demanen a la IA que produeixi artefactes com codi, documents o eines interactives. Aquestes converses, que representen el 12,3% de la mostra, van mostrar que els usuaris esdevenien més directius però, sorprenentment, menys avaluatius.

En crear artefactes, els usuaris eren més propensos a aclarir els seus objectius (+14,7 punts percentuals), especificar formats (+14,5 pp) i proporcionar exemples (+13,4 pp). No obstant això, aquesta major directivitat no es va traduir en una major discerniment. De fet, els usuaris eren notablement menys propensos a identificar el context que faltava (-5,2 pp), verificar fets (-3,7 pp) o qüestionar el raonament del model (-3,1 pp). Aquesta tendència és particularment preocupant donat que les tasques complexes, sovint associades a la creació d'artefactes, són on models d'IA com Claude Opus 4.6 o fins i tot models avançats com GPT-5 (si estigués disponible, tot i que l'enllaç apunta a una versió futura o hipotètica) són més propensos a trobar dificultats.

Aquest fenomen podria atribuir-se a les sortides polides i d'aspecte funcional que la IA sol generar, que podrien induir els usuaris a una falsa sensació de completesa. Ja sigui dissenyant una interfície d'usuari o redactant una anàlisi legal, la capacitat d'examinar críticament la sortida de la IA segueix sent primordial. A mesura que els models d'IA es tornen més sofisticats, el risc d'acceptació acrítica de sortides aparentment perfectes creix, fent que les habilitats avaluatives siguin més valuoses que mai.

Conreant la teva pròpia fluïdesa en IA

La bona notícia és que la fluïdesa en IA, com qualsevol habilitat, es pot desenvolupar. Basant-se en les seves troballes, Anthropic ofereix consells pràctics als usuaris que busquen millorar la seva col·laboració humà-IA:

  1. Mantenir-se en la Conversa: Abordar les respostes inicials de la IA com un punt de partida. Participar en preguntes de seguiment, desafiar suposicions i refinar iterativament les teves sol·licituds. Aquesta implicació activa és el predictor més fort d'altres comportaments de fluïdesa.
  2. Qüestionar les Sortides Polides: Quan un model d'IA produeix alguna cosa que sembla completa i precisa, fes una pausa i aplica el pensament crític. Pregunta't: És realment precís? Falta alguna cosa? El raonament és sòlid? No deixis que la presentació visual anuli l'avaluació crítica.
  3. Establir els Termes de la Col·laboració: Defineix proactivament com vols que la IA interactuï amb tu. Instruccions explícites com "Qüestiona si les meves suposicions són incorrectes", "Explica'm el teu raonament" o "Digues-me de què no estàs segur" poden alterar fonamentalment la dinàmica, fomentant una col·laboració més transparent i robusta.

Una base per al futur desenvolupament d'habilitats d'IA

És important reconèixer les limitacions d'aquest estudi inicial. La mostra, que comprèn usuaris de Claude.ai amb converses de diverses rondes de principis de 2026, probablement s'inclina cap als primers adoptants que ja estan còmodes amb la IA, no cap a la població en general. L'estudi també se centra exclusivament en comportaments observables dins de la interfície de xat, deixant de banda comportaments crucials d'ús ètic i responsable que es produeixen externament. Aquestes advertències signifiquen que l'Índex de Fluïdesa de la IA proporciona una base de referència per a aquesta població específica i un punt de partida per a una recerca més profunda i longitudinal.

Malgrat aquestes limitacions, l'Índex de Fluïdesa de la IA marca un pas significatiu cap a la comprensió i el foment d'una col·laboració humà-IA efectiva. A mesura que les eines d'IA continuen evolucionant, dotar els usuaris de les habilitats per interactuar de manera crítica, iterativa i responsable serà fonamental per realitzar tot el potencial d'aquesta tecnologia alhora que se'n mitiguen els riscos. Aquest informe inicial prepara l'escenari per a futures investigacions, prometent guiar tant els usuaris com els desenvolupadors en la construcció d'un futur impulsat per la IA més fluid i beneficiós.

Preguntes freqüents

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Manteniu-vos al dia

Rebeu les últimes notícies d'IA al correu.

Compartir