Code Velocity
AI تحقیق

AI فلوئنسی انڈیکس: انسانی-AI تعاون کی مہارتوں کی پیمائش

·7 منٹ پڑھنے·Anthropic·اصل ماخذ
شیئر کریں
AI فلوئنسی اور انسانی-AI تعاون کے تصور کو ڈیٹا پوائنٹس کے ساتھ واضح کرنے والا گرافک۔

فلوئنسی سب سے پہلے: Anthropic کا مہارت پر مبنی تعاون کے لیے AI انڈیکس

روزمرہ کے معمولات میں AI ٹولز کا تیزی سے انضمام حیران کن رہا ہے۔ تاہم، جیسے جیسے AI ایک ہر جگہ موجود موجودگی بنتا جا رہا ہے، ایک اہم سوال اٹھتا ہے: کیا صارفین محض ان ٹولز کو اپنا رہے ہیں، یا وہ انہیں مؤثر طریقے سے استعمال کرنے کے لیے ضروری مہارتیں تیار کر رہے ہیں؟ Anthropic، ذمہ دار AI ترقی میں ایک رہنما، اپنی اہم AI فلوئنسی انڈیکس کے ساتھ اس کا جواب دینا چاہتا ہے، جو انسانی-AI تعاون کی مہارتوں کے ارتقاء کی پیمائش اور ٹریک کرنے کے لیے ڈیزائن کردہ ایک نئی رپورٹ ہے۔

Anthropic کی پچھلی تعلیمی رپورٹوں نے اس بات پر روشنی ڈالی کہ یونیورسٹی کے طلباء اور اساتذہ Claude جیسے جدید ماڈلز کو رپورٹ بنانے سے لے کر سبق کی منصوبہ بندی تک کے کاموں کے لیے کس طرح استعمال کرتے ہیں۔ تاہم، یہ مطالعات بنیادی طور پر اس بات پر مرکوز تھے کہ صارفین کیا کر رہے تھے۔ AI فلوئنسی انڈیکس مزید گہرائی میں جاتا ہے، یہ تلاش کرتا ہے کہ افراد AI کے ساتھ کتنی اچھی طرح مشغول ہیں، اس تبدیلی لانے والی ٹیکنالوجی کے ساتھ 'فلوئنسی' کو سمجھنے کے لیے ایک فریم ورک متعارف کراتا ہے۔

AI فلوئنسی کو سمجھنا: 4D فریم ورک

AI فلوئنسی کی مقدار معلوم کرنے کے لیے، Anthropic نے پروفیسرز Rick Dakan اور Joseph Feller کے ساتھ مل کر 4D AI فلوئنسی فریم ورک تیار کیا۔ یہ جامع فریم ورک 24 مخصوص رویوں کی نشاندہی کرتا ہے جو محفوظ اور مؤثر انسانی-AI تعاون کی مثال ہیں۔ اس ابتدائی مطالعہ کے مقصد کے لیے، Anthropic نے Claude.ai چیٹ انٹرفیس کے اندر براہ راست قابل مشاہدہ 11 رویوں پر توجہ مرکوز کی۔ باقی 13، جن میں کام میں AI کے کردار کے بارے میں ایماندار ہونا یا AI سے تیار کردہ آؤٹ پٹ کے نتائج پر غور کرنا جیسے اہم پہلو شامل ہیں، چیٹ سے باہر ہوتے ہیں اور مستقبل کی گتاتمک تحقیق میں ان کا جائزہ لیا جائے گا۔

ایک پرائیویسی کو محفوظ رکھنے والے تجزیاتی ٹول کا استعمال کرتے ہوئے، تحقیقی ٹیم نے جنوری 2026 میں 7 دن کی مدت کے دوران Claude.ai پر 9,830 کثیر الجہتی گفتگوؤں کا بغور مطالعہ کیا۔ اس وسیع ڈیٹاسیٹ نے 11 قابل مشاہدہ فلوئنسی رویوں کی موجودگی یا عدم موجودگی کی پیمائش کے لیے ایک مضبوط بنیادی معیار فراہم کیا، جس سے AI فلوئنسی انڈیکس کی تخلیق ہوئی۔ یہ انڈیکس موجودہ تعاون کے نمونوں کا ایک فوری جائزہ اور AI ماڈلز کی ترقی کے ساتھ ان کے ارتقاء کو ٹریک کرنے کے لیے ایک بنیاد فراہم کرتا ہے۔

AI تعامل میں تکرار اور اصلاح کی طاقت

AI فلوئنسی انڈیکس سے حاصل ہونے والی سب سے دلکش دریافتوں میں سے ایک تکرار اور اصلاح اور تقریباً تمام دیگر AI فلوئنسی رویوں کے درمیان مضبوط تعلق ہے۔ مطالعہ سے پتہ چلا کہ 85.7% گفتگوؤں میں صارفین نے ابتدائی جواب کو صرف قبول کرنے کے بجائے اپنے کام کو بہتر بنانے کے لیے پچھلی گفتگوؤں پر بھروسہ کیا۔ ان تکراری گفتگوؤں نے دیگر فلوئنسی رویوں کی نمایاں طور پر زیادہ شرحیں ظاہر کیں، جو تیز، فوری چیٹس میں دیکھی جانے والی مہارت کو مؤثر طریقے سے دگنا کرتی ہیں۔

AI فلوئنسی رویوں پر تکرار کا اثر

رویوں کا اشارہتکرار اور اصلاح کے ساتھ گفتگوئیں (n=8,424)تکرار اور اصلاح کے بغیر گفتگوئیں (n=1,406)اضافی عنصر (تکراری بمقابلہ غیر تکراری)
Claude کے دلائل پر سوال کرناHighLow5.6x
گمشدہ سیاق و سباق کی نشاندہی کرناHighLow4x
مقصد کو واضح کرناHighMedium~2x
فارمیٹ کی وضاحت کرناHighMedium~2x
مثالیں فراہم کرناHighMedium~2x
اوسط اضافی فلوئنسی رویے2.671.332x

جدول: تکرار اور اصلاح والی گفتگوؤں میں فلوئنسی رویوں کی بڑھی ہوئی موجودگی کو واضح کرنا۔

یہ 'تکرار اور اصلاح کا اثر' AI کو محض ایک کام سونپنے والے کے بجائے ایک سوچنے والے ساتھی کے طور پر سمجھنے کی اہمیت کو اجاگر کرتا ہے۔ وہ صارفین جو فعال طور پر مکالمے میں شامل ہوتے ہیں، اعتراض کرتے ہیں اور اپنی سوالات کو بہتر بناتے ہیں، وہ AI آؤٹ پٹ کا تنقیدی جائزہ لینے، اس کے دلائل پر سوال اٹھانے، اور اہم گمشدہ سیاق و سباق کی نشاندہی کرنے کا نمایاں طور پر زیادہ امکان رکھتے ہیں۔ یہ ایجنٹک ورک فلو کے تصور کے مطابق ہے، جہاں انسانی نگرانی اور تکراری فیڈ بیک بہتر نتائج کو فروغ دیتا ہے، جیسا کہ GitHub ایجنٹک ورک فلو جیسے پلیٹ فارمز کے گرد ہونے والی گفتگوؤں میں تلاش کیا گیا ہے۔

AI آرٹیفیکٹ تخلیق کی دو دھاری تلوار

جبکہ تکرار مجموعی فلوئنسی کو بڑھاتی ہے، رپورٹ نے ایک باریک نمونہ دریافت کیا جب صارفین AI کو آرٹیفیکٹس جیسے کوڈ، دستاویزات، یا انٹرایکٹو ٹولز تیار کرنے کے لیے کہتے ہیں۔ یہ گفتگوئیں، جو نمونے کا 12.3% نمائندگی کرتی ہیں، نے دکھایا کہ صارفین زیادہ ہدایاتی ہو گئے لیکن حیرت انگیز طور پر کم تنقیدی ہوئے۔

آرٹیفیکٹس بناتے وقت، صارفین اپنے اہداف کو واضح کرنے (+14.7 فیصد پوائنٹس)، فارمیٹس کو مخصوص کرنے (+14.5pp)، اور مثالیں فراہم کرنے (+13.4pp) کا زیادہ امکان رکھتے تھے۔ تاہم، یہ بڑھی ہوئی ہدایاتی صلاحیت زیادہ فہم میں تبدیل نہیں ہوئی۔ حقیقت میں، صارفین گمشدہ سیاق و سباق کی نشاندہی کرنے (-5.2pp)، حقائق کو جانچنے (-3.7pp)، یا ماڈل کے دلائل پر سوال اٹھانے (-3.1pp) کا نمایاں طور پر کم امکان رکھتے تھے۔ یہ رجحان خاص طور پر تشویشناک ہے کیونکہ پیچیدہ کام، جو اکثر آرٹیفیکٹ تخلیق سے منسلک ہوتے ہیں، وہیں ہیں جہاں Claude Opus 4.6 یا GPT-5 جیسے جدید ماڈلز (اگر یہ عام ہوتے، اگرچہ لنک ایک مستقبل یا فرضی ورژن کی طرف اشارہ کرتا ہے) جیسے AI ماڈلز کو سب سے زیادہ مشکلات کا سامنا کرنا پڑتا ہے۔

اس رجحان کو AI کے اکثر تیار کردہ چمکدار، فعال نظر آنے والے آؤٹ پٹ سے منسوب کیا جا سکتا ہے، جو صارفین کو تکمیل کا جھوٹا احساس دلا سکتا ہے۔ چاہے وہ UI ڈیزائن کرنا ہو یا قانونی تجزیہ تیار کرنا ہو، AI کے آؤٹ پٹ کو تنقیدی طور پر جانچنے کی صلاحیت انتہائی اہم رہتی ہے۔ جیسے جیسے AI ماڈلز مزید نفیس ہوتے جاتے ہیں، بظاہر کامل آؤٹ پٹ کو غیر تنقیدی طور پر قبول کرنے کا خطرہ بڑھتا جاتا ہے، جس سے تنقیدی مہارتیں پہلے سے کہیں زیادہ قیمتی ہو جاتی ہیں۔

اپنی AI فلوئنسی کو پروان چڑھانا

اچھی خبر یہ ہے کہ AI فلوئنسی، کسی بھی مہارت کی طرح، تیار کی جا سکتی ہے۔ اپنی دریافتوں کی بنیاد پر، Anthropic صارفین کو ان کی انسانی-AI تعاون کو بہتر بنانے کے لیے عملی مشورہ پیش کرتا ہے:

  1. گفتگو میں شامل رہنا: ابتدائی AI ردعمل کو نقطہ آغاز سمجھیں۔ فالو اپ سوالات پوچھیں، مفروضوں کو چیلنج کریں، اور اپنی درخواستوں کو تکراری طور پر بہتر بنائیں۔ یہ فعال مشغولیت دیگر فلوئنسی رویوں کا سب سے مضبوط پیشین گوئی کرنے والا ہے۔
  2. چمکدار آؤٹ پٹ پر سوال اٹھانا: جب ایک AI ماڈل کوئی ایسی چیز تیار کرتا ہے جو مکمل اور درست نظر آتی ہے، تو رکیں اور تنقیدی سوچ کا اطلاق کریں۔ پوچھیں: کیا یہ واقعی درست ہے؟ کیا کچھ گمشدہ ہے؟ کیا دلائل برقرار ہیں؟ بصری چمک کو تنقیدی جائزے پر حاوی نہ ہونے دیں۔
  3. تعاون کی شرائط طے کرنا: فعال طور پر یہ طے کریں کہ آپ AI کو اپنے ساتھ کس طرح تعامل کرنا چاہتے ہیں۔ واضح ہدایات جیسے 'اگر میرے مفروضے غلط ہیں تو اعتراض کرو،' 'مجھے اپنے دلائل سمجھاؤ،' یا 'مجھے بتاؤ کہ تم کس بارے میں غیر یقینی ہو' بنیادی طور پر متحرک کو تبدیل کر سکتی ہیں، جس سے زیادہ شفاف اور مضبوط تعاون کو فروغ ملتا ہے۔

مستقبل کی AI مہارت کی ترقی کے لیے ایک بنیادی معیار

اس ابتدائی مطالعہ کی حدود کو تسلیم کرنا ضروری ہے۔ نمونہ، جو 2026 کے اوائل کے کثیر الجہتی Claude.ai صارفین پر مشتمل ہے، ممکنہ طور پر ابتدائی استعمال کنندگان کی طرف مائل ہے جو پہلے ہی AI سے واقف ہیں، نہ کہ وسیع آبادی۔ یہ مطالعہ صرف چیٹ انٹرفیس کے اندر قابل مشاہدہ رویوں پر بھی توجہ مرکوز کرتا ہے، جس سے اہم اخلاقی اور ذمہ دارانہ استعمال کے رویوں کو چھوڑ دیا جاتا ہے جو بیرونی طور پر ہوتے ہیں۔ یہ انتباہات کا مطلب ہے کہ AI فلوئنسی انڈیکس اس مخصوص آبادی کے لیے ایک بنیادی معیار اور گہری، طویل مدتی تحقیق کے لیے ایک نقطہ آغاز فراہم کرتا ہے۔

ان حدود کے باوجود، AI فلوئنسی انڈیکس مؤثر انسانی-AI تعاون کو سمجھنے اور فروغ دینے کی طرف ایک اہم قدم ہے۔ جیسے جیسے AI ٹولز ترقی کرتے رہیں گے، صارفین کو تنقیدی، تکراری، اور ذمہ دارانہ طور پر شامل ہونے کی مہارتوں سے بااختیار بنانا اس ٹیکنالوجی کی پوری صلاحیت کو حاصل کرنے اور اس کے خطرات کو کم کرنے کے لیے مرکزی حیثیت رکھے گا۔ یہ ابتدائی رپورٹ مستقبل کی تحقیق کے لیے بنیاد فراہم کرتی ہے، جو صارفین اور ڈویلپرز دونوں کو ایک زیادہ فلوئنٹ اور فائدہ مند AI سے چلنے والے مستقبل کی تعمیر میں رہنمائی کرنے کا وعدہ کرتی ہے۔

اکثر پوچھے جانے والے سوالات

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

اپ ڈیٹ رہیں

تازہ ترین AI خبریں اپنے ان باکس میں حاصل کریں۔

شیئر کریں