Code Velocity
AI ஆராய்ச்சி

AI சரளத்தன்மை குறியீடு: மனித-AI ஒத்துழைப்பு திறன்களை அளவிடுதல்

·7 நிமிட வாசிப்பு·Anthropic·அசல் மூலம்
பகிர்
AI சரளத்தன்மை மற்றும் மனித-AI ஒத்துழைப்பு பற்றிய கருத்தை விளக்கிக் காட்டும் ஒரு வரைபடம், தரவுப் புள்ளிகளுடன்.

சரளத்தன்மை முதலில்: திறமையான ஒத்துழைப்பிற்கான Anthropic இன் AI குறியீடு

AI கருவிகள் அன்றாட நடைமுறைகளில் விரைவாக ஒருங்கிணைக்கப்படுவது வியக்கத்தக்கது. இருப்பினும், AI எங்கும் நிறைந்த ஒன்றாக மாறும்போது, ஒரு முக்கியமான கேள்வி எழுகிறது: பயனர்கள் இந்த கருவிகளை வெறுமனே ஏற்றுக்கொள்கிறார்களா, அல்லது அவற்றை திறம்பட பயன்படுத்த தேவையான திறன்களை வளர்த்து வருகிறார்களா? பொறுப்பான AI மேம்பாட்டில் ஒரு முன்னோடியான Anthropic, மனித-AI ஒத்துழைப்பு திறன்களின் பரிணாம வளர்ச்சியை அளவிடுவதற்கும் கண்காணிப்பதற்கும் வடிவமைக்கப்பட்ட ஒரு புதிய அறிக்கையான, அவர்களின் புரட்சிகரமான AI சரளத்தன்மை குறியீடு மூலம் இதற்கு பதிலளிக்க முயல்கிறது.

முந்தைய Anthropic கல்வி அறிக்கைகள், பல்கலைக்கழக மாணவர்கள் மற்றும் கல்வியாளர்கள் Claude போன்ற மேம்பட்ட மாதிரிகளை அறிக்கை உருவாக்குதல் முதல் பாடம் திட்டமிடல் வரையிலான பணிகளுக்கு எவ்வாறு பயன்படுத்துகிறார்கள் என்பதை வெளிப்படுத்தின. இருப்பினும், இந்த ஆய்வுகள் முதன்மையாக பயனர்கள் என்ன செய்தார்கள் என்பதில் கவனம் செலுத்தின. AI சரளத்தன்மை குறியீடு ஆழமாகச் சென்று, தனிநபர்கள் AI உடன் எவ்வளவு சிறப்பாக ஈடுபடுகிறார்கள் என்பதை ஆராய்ந்து, இந்த மாற்றும் தொழில்நுட்பத்துடன் "சரளத்தன்மை"யைப் புரிந்துகொள்வதற்கான ஒரு கட்டமைப்பை அறிமுகப்படுத்துகிறது.

AI சரளத்தன்மையை புரிந்துகொள்ளுதல்: 4D கட்டமைப்பு

AI சரளத்தன்மையை அளவிட, Anthropic பேராசிரியர்கள் Rick Dakan மற்றும் Joseph Feller உடன் இணைந்து 4D AI சரளத்தன்மை கட்டமைப்பை உருவாக்கியது. இந்த விரிவான கட்டமைப்பு, பாதுகாப்பான மற்றும் பயனுள்ள மனித-AI ஒத்துழைப்பை எடுத்துக்காட்டும் 24 குறிப்பிட்ட நடத்தைகளை அடையாளம் காட்டுகிறது. இந்த ஆரம்பக்கட்ட ஆய்வின் நோக்கத்திற்காக, Anthropic Claude.ai அரட்டை இடைமுகத்திற்குள் நேரடியாகக் கவனிக்கக்கூடிய 11 நடத்தைகளில் கவனம் செலுத்தியது. மீதமுள்ள 13 நடத்தைகள், AI இன் பணிப்பங்கைப் பற்றி நேர்மையாக இருப்பதன் அல்லது AI உருவாக்கிய வெளியீட்டின் விளைவுகளைக் கருத்தில் கொள்வது போன்ற முக்கியமான அம்சங்களை உள்ளடக்கியவை, அரட்டைக்கு வெளியே நிகழ்கின்றன, மேலும் எதிர்கால தரமான ஆய்வில் மதிப்பிடப்படும்.

தனியுரிமை பாதுகாக்கும் பகுப்பாய்வு கருவியைப் பயன்படுத்தி, ஆராய்ச்சி குழு 2026 ஜனவரியில் 7 நாட்கள் காலப்பகுதியில் Claude.ai இல் 9,830 பல-சுற்று உரையாடல்களை நுணுக்கமாக ஆய்வு செய்தது. இந்த விரிவான தரவுத்தொகுப்பு, 11 கவனிக்கக்கூடிய சரளத்தன்மை நடத்தைகளின் இருப்பு அல்லது இல்லாமையை அளவிடுவதற்கு ஒரு வலுவான அடிப்படையை வழங்கியது, இது AI சரளத்தன்மை குறியீட்டை உருவாக்க வழிவகுத்தது. இந்த குறியீடு தற்போதைய ஒத்துழைப்பு வடிவங்களின் ஒரு சுருக்கத்தைக் காட்டுகிறது மற்றும் AI மாதிரிகள் முன்னேறும்போது அவற்றின் பரிணாம வளர்ச்சியைக் கண்காணிப்பதற்கான ஒரு அடித்தளத்தையும் வழங்குகிறது.

AI தொடர்பில் மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதலின் சக்தி

AI சரளத்தன்மை குறியீட்டிலிருந்து கிடைத்த மிகவும் கட்டாய கண்டுபிடிப்புகளில் ஒன்று, மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதல் மற்றும் கிட்டத்தட்ட அனைத்து பிற AI சரளத்தன்மை நடத்தைகளுக்கும் இடையே உள்ள வலுவான தொடர்பு ஆகும். ஆய்வில், 85.7% உரையாடல்களில் பயனர்கள் ஆரம்ப பதில்களை வெறுமனே ஏற்றுக்கொள்வதற்குப் பதிலாக, தங்கள் வேலையைச் செம்மைப்படுத்த முந்தைய பரிமாற்றங்களின் அடிப்படையில் செயல்பட்டது தெரியவந்துள்ளது. இந்த திரும்பத் திரும்ப நிகழும் உரையாடல்கள் மற்ற சரளத்தன்மை நடத்தைகளின் விகிதங்கள் கணிசமாக அதிகமாக இருப்பதைக் காட்டின, விரைவான, மாறி மாறி நிகழும் அரட்டைகளில் காணப்பட்ட தேர்ச்சியை திறம்பட இரட்டிப்பாக்கின.

AI சரளத்தன்மை நடத்தைகளில் மீண்டும் மீண்டும் செய்தலின் தாக்கம்

நடத்தை சுட்டிமீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதலுடன் கூடிய உரையாடல்கள் (n=8,424)மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதல் இல்லாத உரையாடல்கள் (n=1,406)அதிகரிப்பு காரணி (திரும்பத் திரும்ப நிகழும் எதிராக திரும்பத் திரும்ப நிகழாத)
Claude இன் நியாயத்தைக் கேள்விக்குட்படுத்துதல்அதிகம்குறைவு5.6x
காணாமல் போன சூழலை அடையாளம் காணுதல்அதிகம்குறைவு4x
இலக்கை தெளிவுபடுத்துதல்அதிகம்நடுத்தரம்~2x
வடிவத்தை குறிப்பிடுதல்அதிகம்நடுத்தரம்~2x
எடுத்துக்காட்டுகளை வழங்குதல்அதிகம்நடுத்தரம்~2x
சராசரி கூடுதல் சரளத்தன்மை நடத்தைகள்2.671.332x

அட்டவணை: மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதலுடன் கூடிய உரையாடல்களில் சரளத்தன்மை நடத்தைகளின் அதிகரித்த பரவலை விளக்குகிறது.

இந்த 'மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதல் விளைவு' AI ஐ வெறும் ஒரு பணிப் பிரதிநிதியாகக் கருதுவதற்குப் பதிலாக, ஒரு சிந்தனைப் பங்காளியாகக் கருதுவதன் முக்கியத்துவத்தை அடிக்கோடிட்டுக் காட்டுகிறது. உரையாடலில் தீவிரமாக ஈடுபடும், பின்வாங்கி தங்கள் வினவல்களைச் செம்மைப்படுத்தும் பயனர்கள், AI வெளியீடுகளை விமர்சன ரீதியாக மதிப்பிடவும், அதன் நியாயத்தைக் கேள்வி கேட்கவும், முக்கியமான காணாமல் போன சூழலை அடையாளம் காணவும் கணிசமாக அதிக வாய்ப்புள்ளது. இது முகவர் பணிப்பாய்வு (agentic workflows) என்ற கருத்துடன் ஒத்துப்போகிறது, அங்கு மனித மேற்பார்வை மற்றும் திரும்பத் திரும்ப வரும் பின்னூட்டங்கள் சிறந்த விளைவுகளைத் தூண்டுகின்றன, GitHub முகவர் பணிப்பாய்வு போன்ற தளங்களைப் பற்றிய விவாதங்களில் ஆராயப்பட்டது போல.

AI கலைப்பொருள் உருவாக்கத்தின் இருமுனை வாள்

மீண்டும் மீண்டும் செய்தல் ஒட்டுமொத்த சரளத்தன்மையை அதிகரிக்கச் செய்தாலும், பயனர்கள் AI ஐ கலைப்பொருட்களை (குறியீடு, ஆவணங்கள் அல்லது ஊடாடும் கருவிகள் போன்றவை) உருவாக்கத் தூண்டும்போது, இந்த அறிக்கை ஒரு நுட்பமான வடிவத்தைக் கண்டறிந்துள்ளது. மாதிரியில் 12.3% ஐப் பிரதிநிதித்துவப்படுத்தும் இந்த உரையாடல்களில், பயனர்கள் அதிக அறிவுறுத்தலுடன் செயல்படுகிறார்கள், ஆனால் ஆச்சரியப்படும் விதமாக குறைவான மதிப்பீட்டாளராக மாறுகிறார்கள்.

கலைப்பொருட்களை உருவாக்கும்போது, பயனர்கள் தங்கள் இலக்குகளைத் தெளிவுபடுத்த (+14.7 சதவீத புள்ளிகள்), வடிவங்களை குறிப்பிட (+14.5pp), மற்றும் எடுத்துக்காட்டுகளை வழங்க (+13.4pp) அதிக வாய்ப்புள்ளது. இருப்பினும், இந்த அதிகரித்த அறிவுறுத்தல் பெரிய புரிதலை ஏற்படுத்தவில்லை. உண்மையில், காணாமல் போன சூழலை அடையாளம் காண (-5.2pp), உண்மைகளைச் சரிபார்க்க (-3.7pp), அல்லது மாதிரியின் நியாயத்தைக் கேள்வி கேட்க (-3.1pp) பயனர்கள் குறிப்பிடத்தக்க அளவில் குறைவான வாய்ப்புள்ளது. சிக்கலான பணிகள், பெரும்பாலும் கலைப்பொருள் உருவாக்கத்துடன் தொடர்புடையவை, Claude Opus 4.6 அல்லது GPT-5 போன்ற மேம்பட்ட மாதிரிகள் (இது பரவலாகப் பயன்பாட்டில் இருந்தால், இருப்பினும் இணைப்பு எதிர்கால அல்லது கற்பனையான பதிப்பைக் குறிக்கிறது) மிகவும் சிரமங்களை எதிர்கொள்ளக்கூடிய இடங்கள் என்பதால் இந்த போக்கு குறிப்பாக கவலையளிக்கிறது.

இந்த நிகழ்வு AI பெரும்பாலும் உருவாக்கும் பளபளப்பான, செயல்பாட்டுத் தோற்றமுடைய வெளியீடுகளுக்குக் காரணமாக இருக்கலாம், இது பயனர்களை தவறான நிறைவு உணர்வுக்கு இட்டுச்செல்லலாம். ஒரு UI ஐ வடிவமைப்பதாக இருந்தாலும் அல்லது ஒரு சட்ட ஆய்வை உருவாக்குவதாக இருந்தாலும், AI இன் வெளியீட்டை விமர்சன ரீதியாக ஆராயும் திறன் மிக முக்கியமானது. AI மாதிரிகள் மிகவும் அதிநவீனமாக மாறும்போது, வெளிப்படையாக சரியான வெளியீடுகளை விமர்சனமின்றி ஏற்றுக்கொள்வதற்கான ஆபத்து அதிகரிக்கிறது, மதிப்பீட்டுத் திறன்களை முன்னெப்போதையும் விட மதிப்புமிக்கதாக ஆக்குகிறது.

உங்கள் சொந்த AI சரளத்தன்மையை வளர்ப்பது

நல்ல செய்தி என்னவென்றால், AI சரளத்தன்மை, எந்த திறமையைப் போலவும், வளர்க்கப்படலாம். தங்கள் கண்டுபிடிப்புகளின் அடிப்படையில், Anthropic தங்கள் மனித-AI ஒத்துழைப்பை மேம்படுத்த விரும்பும் பயனர்களுக்கு நடைமுறை ஆலோசனைகளை வழங்குகிறது:

  1. உரையாடலில் நிலைத்திருத்தல்: ஆரம்ப AI பதில்களை ஒரு தொடக்கப் புள்ளியாக ஏற்றுக்கொள்ளுங்கள். பின்தொடர் கேள்விகளில் ஈடுபடுங்கள், அனுமானங்களை கேள்விக்குட்படுத்துங்கள், மற்றும் உங்கள் கோரிக்கைகளை மீண்டும் மீண்டும் செம்மைப்படுத்துங்கள். இந்த செயலில் ஈடுபாடு மற்ற சரளத்தன்மை நடத்தைகளின் மிக முக்கியமான முன்னறிவிப்பு ஆகும்.
  2. பளபளப்பான வெளியீடுகளைக் கேள்விக்குட்படுத்துதல்: ஒரு AI மாதிரி முழுமையானதாகவும் துல்லியமானதாகவும் தோன்றக்கூடிய ஒன்றை உருவாக்கும்போது, நிறுத்திவிட்டு விமர்சன சிந்தனையைப் பயன்படுத்துங்கள். கேளுங்கள்: இது உண்மையில் துல்லியமானதா? எதுவும் காணவில்லையா? நியாயம் உறுதியானதா? காட்சிப் பளபளப்பு விமர்சன மதிப்பீட்டை மிஞ்ச விடாதீர்கள்.
  3. ஒத்துழைப்பின் விதிகளை அமைத்தல்: AI உங்களுடன் எவ்வாறு தொடர்பு கொள்ள வேண்டும் என்பதை நீங்கள் முன்கூட்டியே வரையறுக்கவும். 'என் அனுமானங்கள் தவறாக இருந்தால் எதிர்க்கவும்,' 'உங்கள் நியாயத்தை எனக்கு விளக்குங்கள்,' அல்லது 'எது குறித்து உங்களுக்கு நிச்சயமில்லையோ அதை எனக்குச் சொல்லுங்கள்' போன்ற வெளிப்படையான அறிவுறுத்தல்கள் இயக்கவியலை அடிப்படையாக மாற்றும், மேலும் வெளிப்படையான மற்றும் வலுவான ஒத்துழைப்பை வளர்க்கும்.

எதிர்கால AI திறன் மேம்பாட்டிற்கான ஒரு அடிப்படை

இந்த ஆரம்பக்கட்ட ஆய்வின் வரம்புகளை ஒப்புக்கொள்வது முக்கியம். 2026 இன் ஆரம்பத்தில் பல-சுற்று Claude.ai பயனர்களைக் கொண்ட மாதிரி, ஏற்கனவே AI உடன் பழகிய ஆரம்ப தத்தெடுப்பவர்களை நோக்கிச் சாய்ந்திருக்கும், பரந்த மக்கள்தொகையை அல்ல. இந்த ஆய்வு அரட்டை இடைமுகத்திற்குள் கவனிக்கக்கூடிய நடத்தைகளில் மட்டுமே கவனம் செலுத்துகிறது, வெளிப்புறமாக நிகழும் முக்கியமான நெறிமுறை மற்றும் பொறுப்பான பயன்பாட்டு நடத்தைகளை விட்டுவிடுகிறது. இந்த எச்சரிக்கைகள், AI சரளத்தன்மை குறியீடு இந்த குறிப்பிட்ட மக்கள்தொகைக்கு ஒரு அடிப்படையையும், ஆழமான, நீண்டகால ஆராய்ச்சிக்கான ஒரு தொடக்கப் புள்ளியையும் வழங்குகிறது என்பதைக் குறிக்கிறது.

இந்த வரம்புகள் இருந்தபோதிலும், AI சரளத்தன்மை குறியீடு பயனுள்ள மனித-AI ஒத்துழைப்பைப் புரிந்துகொள்வதற்கும் வளர்ப்பதற்கும் ஒரு குறிப்பிடத்தக்க படியாகும். AI கருவிகள் தொடர்ந்து உருவாகும்போது, விமர்சன ரீதியாகவும், மீண்டும் மீண்டும் செய்யக்கூடியதாகவும், பொறுப்புணர்வுடனும் செயல்படும் திறன்களுடன் பயனர்களுக்கு அதிகாரமளிப்பது, இந்த தொழில்நுட்பத்தின் முழு திறனையும் உணர்ந்து அதன் அபாயங்களைக் குறைப்பதற்கான மையமாக இருக்கும். இந்த ஆரம்ப அறிக்கை எதிர்கால ஆராய்ச்சிக்கான களத்தை அமைக்கிறது, மேலும் சரளமாகவும் பயனுள்ளதாகவும் AI-இயங்கும் எதிர்காலத்தை உருவாக்குவதில் பயனர்கள் மற்றும் உருவாக்குநர்கள் இருவருக்கும் வழிகாட்ட உறுதியளிக்கிறது.

அடிக்கடி கேட்கப்படும் கேள்விகள்

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

புதுப்பிப்புகளைப் பெறுங்கள்

சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.

பகிர்