சரளத்தன்மை முதலில்: திறமையான ஒத்துழைப்பிற்கான Anthropic இன் AI குறியீடு
AI கருவிகள் அன்றாட நடைமுறைகளில் விரைவாக ஒருங்கிணைக்கப்படுவது வியக்கத்தக்கது. இருப்பினும், AI எங்கும் நிறைந்த ஒன்றாக மாறும்போது, ஒரு முக்கியமான கேள்வி எழுகிறது: பயனர்கள் இந்த கருவிகளை வெறுமனே ஏற்றுக்கொள்கிறார்களா, அல்லது அவற்றை திறம்பட பயன்படுத்த தேவையான திறன்களை வளர்த்து வருகிறார்களா? பொறுப்பான AI மேம்பாட்டில் ஒரு முன்னோடியான Anthropic, மனித-AI ஒத்துழைப்பு திறன்களின் பரிணாம வளர்ச்சியை அளவிடுவதற்கும் கண்காணிப்பதற்கும் வடிவமைக்கப்பட்ட ஒரு புதிய அறிக்கையான, அவர்களின் புரட்சிகரமான AI சரளத்தன்மை குறியீடு மூலம் இதற்கு பதிலளிக்க முயல்கிறது.
முந்தைய Anthropic கல்வி அறிக்கைகள், பல்கலைக்கழக மாணவர்கள் மற்றும் கல்வியாளர்கள் Claude போன்ற மேம்பட்ட மாதிரிகளை அறிக்கை உருவாக்குதல் முதல் பாடம் திட்டமிடல் வரையிலான பணிகளுக்கு எவ்வாறு பயன்படுத்துகிறார்கள் என்பதை வெளிப்படுத்தின. இருப்பினும், இந்த ஆய்வுகள் முதன்மையாக பயனர்கள் என்ன செய்தார்கள் என்பதில் கவனம் செலுத்தின. AI சரளத்தன்மை குறியீடு ஆழமாகச் சென்று, தனிநபர்கள் AI உடன் எவ்வளவு சிறப்பாக ஈடுபடுகிறார்கள் என்பதை ஆராய்ந்து, இந்த மாற்றும் தொழில்நுட்பத்துடன் "சரளத்தன்மை"யைப் புரிந்துகொள்வதற்கான ஒரு கட்டமைப்பை அறிமுகப்படுத்துகிறது.
AI சரளத்தன்மையை புரிந்துகொள்ளுதல்: 4D கட்டமைப்பு
AI சரளத்தன்மையை அளவிட, Anthropic பேராசிரியர்கள் Rick Dakan மற்றும் Joseph Feller உடன் இணைந்து 4D AI சரளத்தன்மை கட்டமைப்பை உருவாக்கியது. இந்த விரிவான கட்டமைப்பு, பாதுகாப்பான மற்றும் பயனுள்ள மனித-AI ஒத்துழைப்பை எடுத்துக்காட்டும் 24 குறிப்பிட்ட நடத்தைகளை அடையாளம் காட்டுகிறது. இந்த ஆரம்பக்கட்ட ஆய்வின் நோக்கத்திற்காக, Anthropic Claude.ai அரட்டை இடைமுகத்திற்குள் நேரடியாகக் கவனிக்கக்கூடிய 11 நடத்தைகளில் கவனம் செலுத்தியது. மீதமுள்ள 13 நடத்தைகள், AI இன் பணிப்பங்கைப் பற்றி நேர்மையாக இருப்பதன் அல்லது AI உருவாக்கிய வெளியீட்டின் விளைவுகளைக் கருத்தில் கொள்வது போன்ற முக்கியமான அம்சங்களை உள்ளடக்கியவை, அரட்டைக்கு வெளியே நிகழ்கின்றன, மேலும் எதிர்கால தரமான ஆய்வில் மதிப்பிடப்படும்.
தனியுரிமை பாதுகாக்கும் பகுப்பாய்வு கருவியைப் பயன்படுத்தி, ஆராய்ச்சி குழு 2026 ஜனவரியில் 7 நாட்கள் காலப்பகுதியில் Claude.ai இல் 9,830 பல-சுற்று உரையாடல்களை நுணுக்கமாக ஆய்வு செய்தது. இந்த விரிவான தரவுத்தொகுப்பு, 11 கவனிக்கக்கூடிய சரளத்தன்மை நடத்தைகளின் இருப்பு அல்லது இல்லாமையை அளவிடுவதற்கு ஒரு வலுவான அடிப்படையை வழங்கியது, இது AI சரளத்தன்மை குறியீட்டை உருவாக்க வழிவகுத்தது. இந்த குறியீடு தற்போதைய ஒத்துழைப்பு வடிவங்களின் ஒரு சுருக்கத்தைக் காட்டுகிறது மற்றும் AI மாதிரிகள் முன்னேறும்போது அவற்றின் பரிணாம வளர்ச்சியைக் கண்காணிப்பதற்கான ஒரு அடித்தளத்தையும் வழங்குகிறது.
AI தொடர்பில் மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதலின் சக்தி
AI சரளத்தன்மை குறியீட்டிலிருந்து கிடைத்த மிகவும் கட்டாய கண்டுபிடிப்புகளில் ஒன்று, மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதல் மற்றும் கிட்டத்தட்ட அனைத்து பிற AI சரளத்தன்மை நடத்தைகளுக்கும் இடையே உள்ள வலுவான தொடர்பு ஆகும். ஆய்வில், 85.7% உரையாடல்களில் பயனர்கள் ஆரம்ப பதில்களை வெறுமனே ஏற்றுக்கொள்வதற்குப் பதிலாக, தங்கள் வேலையைச் செம்மைப்படுத்த முந்தைய பரிமாற்றங்களின் அடிப்படையில் செயல்பட்டது தெரியவந்துள்ளது. இந்த திரும்பத் திரும்ப நிகழும் உரையாடல்கள் மற்ற சரளத்தன்மை நடத்தைகளின் விகிதங்கள் கணிசமாக அதிகமாக இருப்பதைக் காட்டின, விரைவான, மாறி மாறி நிகழும் அரட்டைகளில் காணப்பட்ட தேர்ச்சியை திறம்பட இரட்டிப்பாக்கின.
AI சரளத்தன்மை நடத்தைகளில் மீண்டும் மீண்டும் செய்தலின் தாக்கம்
| நடத்தை சுட்டி | மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதலுடன் கூடிய உரையாடல்கள் (n=8,424) | மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதல் இல்லாத உரையாடல்கள் (n=1,406) | அதிகரிப்பு காரணி (திரும்பத் திரும்ப நிகழும் எதிராக திரும்பத் திரும்ப நிகழாத) |
|---|---|---|---|
| Claude இன் நியாயத்தைக் கேள்விக்குட்படுத்துதல் | அதிகம் | குறைவு | 5.6x |
| காணாமல் போன சூழலை அடையாளம் காணுதல் | அதிகம் | குறைவு | 4x |
| இலக்கை தெளிவுபடுத்துதல் | அதிகம் | நடுத்தரம் | ~2x |
| வடிவத்தை குறிப்பிடுதல் | அதிகம் | நடுத்தரம் | ~2x |
| எடுத்துக்காட்டுகளை வழங்குதல் | அதிகம் | நடுத்தரம் | ~2x |
| சராசரி கூடுதல் சரளத்தன்மை நடத்தைகள் | 2.67 | 1.33 | 2x |
அட்டவணை: மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதலுடன் கூடிய உரையாடல்களில் சரளத்தன்மை நடத்தைகளின் அதிகரித்த பரவலை விளக்குகிறது.
இந்த 'மீண்டும் மீண்டும் செய்தல் மற்றும் செம்மைப்படுத்துதல் விளைவு' AI ஐ வெறும் ஒரு பணிப் பிரதிநிதியாகக் கருதுவதற்குப் பதிலாக, ஒரு சிந்தனைப் பங்காளியாகக் கருதுவதன் முக்கியத்துவத்தை அடிக்கோடிட்டுக் காட்டுகிறது. உரையாடலில் தீவிரமாக ஈடுபடும், பின்வாங்கி தங்கள் வினவல்களைச் செம்மைப்படுத்தும் பயனர்கள், AI வெளியீடுகளை விமர்சன ரீதியாக மதிப்பிடவும், அதன் நியாயத்தைக் கேள்வி கேட்கவும், முக்கியமான காணாமல் போன சூழலை அடையாளம் காணவும் கணிசமாக அதிக வாய்ப்புள்ளது. இது முகவர் பணிப்பாய்வு (agentic workflows) என்ற கருத்துடன் ஒத்துப்போகிறது, அங்கு மனித மேற்பார்வை மற்றும் திரும்பத் திரும்ப வரும் பின்னூட்டங்கள் சிறந்த விளைவுகளைத் தூண்டுகின்றன, GitHub முகவர் பணிப்பாய்வு போன்ற தளங்களைப் பற்றிய விவாதங்களில் ஆராயப்பட்டது போல.
AI கலைப்பொருள் உருவாக்கத்தின் இருமுனை வாள்
மீண்டும் மீண்டும் செய்தல் ஒட்டுமொத்த சரளத்தன்மையை அதிகரிக்கச் செய்தாலும், பயனர்கள் AI ஐ கலைப்பொருட்களை (குறியீடு, ஆவணங்கள் அல்லது ஊடாடும் கருவிகள் போன்றவை) உருவாக்கத் தூண்டும்போது, இந்த அறிக்கை ஒரு நுட்பமான வடிவத்தைக் கண்டறிந்துள்ளது. மாதிரியில் 12.3% ஐப் பிரதிநிதித்துவப்படுத்தும் இந்த உரையாடல்களில், பயனர்கள் அதிக அறிவுறுத்தலுடன் செயல்படுகிறார்கள், ஆனால் ஆச்சரியப்படும் விதமாக குறைவான மதிப்பீட்டாளராக மாறுகிறார்கள்.
கலைப்பொருட்களை உருவாக்கும்போது, பயனர்கள் தங்கள் இலக்குகளைத் தெளிவுபடுத்த (+14.7 சதவீத புள்ளிகள்), வடிவங்களை குறிப்பிட (+14.5pp), மற்றும் எடுத்துக்காட்டுகளை வழங்க (+13.4pp) அதிக வாய்ப்புள்ளது. இருப்பினும், இந்த அதிகரித்த அறிவுறுத்தல் பெரிய புரிதலை ஏற்படுத்தவில்லை. உண்மையில், காணாமல் போன சூழலை அடையாளம் காண (-5.2pp), உண்மைகளைச் சரிபார்க்க (-3.7pp), அல்லது மாதிரியின் நியாயத்தைக் கேள்வி கேட்க (-3.1pp) பயனர்கள் குறிப்பிடத்தக்க அளவில் குறைவான வாய்ப்புள்ளது. சிக்கலான பணிகள், பெரும்பாலும் கலைப்பொருள் உருவாக்கத்துடன் தொடர்புடையவை, Claude Opus 4.6 அல்லது GPT-5 போன்ற மேம்பட்ட மாதிரிகள் (இது பரவலாகப் பயன்பாட்டில் இருந்தால், இருப்பினும் இணைப்பு எதிர்கால அல்லது கற்பனையான பதிப்பைக் குறிக்கிறது) மிகவும் சிரமங்களை எதிர்கொள்ளக்கூடிய இடங்கள் என்பதால் இந்த போக்கு குறிப்பாக கவலையளிக்கிறது.
இந்த நிகழ்வு AI பெரும்பாலும் உருவாக்கும் பளபளப்பான, செயல்பாட்டுத் தோற்றமுடைய வெளியீடுகளுக்குக் காரணமாக இருக்கலாம், இது பயனர்களை தவறான நிறைவு உணர்வுக்கு இட்டுச்செல்லலாம். ஒரு UI ஐ வடிவமைப்பதாக இருந்தாலும் அல்லது ஒரு சட்ட ஆய்வை உருவாக்குவதாக இருந்தாலும், AI இன் வெளியீட்டை விமர்சன ரீதியாக ஆராயும் திறன் மிக முக்கியமானது. AI மாதிரிகள் மிகவும் அதிநவீனமாக மாறும்போது, வெளிப்படையாக சரியான வெளியீடுகளை விமர்சனமின்றி ஏற்றுக்கொள்வதற்கான ஆபத்து அதிகரிக்கிறது, மதிப்பீட்டுத் திறன்களை முன்னெப்போதையும் விட மதிப்புமிக்கதாக ஆக்குகிறது.
உங்கள் சொந்த AI சரளத்தன்மையை வளர்ப்பது
நல்ல செய்தி என்னவென்றால், AI சரளத்தன்மை, எந்த திறமையைப் போலவும், வளர்க்கப்படலாம். தங்கள் கண்டுபிடிப்புகளின் அடிப்படையில், Anthropic தங்கள் மனித-AI ஒத்துழைப்பை மேம்படுத்த விரும்பும் பயனர்களுக்கு நடைமுறை ஆலோசனைகளை வழங்குகிறது:
- உரையாடலில் நிலைத்திருத்தல்: ஆரம்ப AI பதில்களை ஒரு தொடக்கப் புள்ளியாக ஏற்றுக்கொள்ளுங்கள். பின்தொடர் கேள்விகளில் ஈடுபடுங்கள், அனுமானங்களை கேள்விக்குட்படுத்துங்கள், மற்றும் உங்கள் கோரிக்கைகளை மீண்டும் மீண்டும் செம்மைப்படுத்துங்கள். இந்த செயலில் ஈடுபாடு மற்ற சரளத்தன்மை நடத்தைகளின் மிக முக்கியமான முன்னறிவிப்பு ஆகும்.
- பளபளப்பான வெளியீடுகளைக் கேள்விக்குட்படுத்துதல்: ஒரு AI மாதிரி முழுமையானதாகவும் துல்லியமானதாகவும் தோன்றக்கூடிய ஒன்றை உருவாக்கும்போது, நிறுத்திவிட்டு விமர்சன சிந்தனையைப் பயன்படுத்துங்கள். கேளுங்கள்: இது உண்மையில் துல்லியமானதா? எதுவும் காணவில்லையா? நியாயம் உறுதியானதா? காட்சிப் பளபளப்பு விமர்சன மதிப்பீட்டை மிஞ்ச விடாதீர்கள்.
- ஒத்துழைப்பின் விதிகளை அமைத்தல்: AI உங்களுடன் எவ்வாறு தொடர்பு கொள்ள வேண்டும் என்பதை நீங்கள் முன்கூட்டியே வரையறுக்கவும். 'என் அனுமானங்கள் தவறாக இருந்தால் எதிர்க்கவும்,' 'உங்கள் நியாயத்தை எனக்கு விளக்குங்கள்,' அல்லது 'எது குறித்து உங்களுக்கு நிச்சயமில்லையோ அதை எனக்குச் சொல்லுங்கள்' போன்ற வெளிப்படையான அறிவுறுத்தல்கள் இயக்கவியலை அடிப்படையாக மாற்றும், மேலும் வெளிப்படையான மற்றும் வலுவான ஒத்துழைப்பை வளர்க்கும்.
எதிர்கால AI திறன் மேம்பாட்டிற்கான ஒரு அடிப்படை
இந்த ஆரம்பக்கட்ட ஆய்வின் வரம்புகளை ஒப்புக்கொள்வது முக்கியம். 2026 இன் ஆரம்பத்தில் பல-சுற்று Claude.ai பயனர்களைக் கொண்ட மாதிரி, ஏற்கனவே AI உடன் பழகிய ஆரம்ப தத்தெடுப்பவர்களை நோக்கிச் சாய்ந்திருக்கும், பரந்த மக்கள்தொகையை அல்ல. இந்த ஆய்வு அரட்டை இடைமுகத்திற்குள் கவனிக்கக்கூடிய நடத்தைகளில் மட்டுமே கவனம் செலுத்துகிறது, வெளிப்புறமாக நிகழும் முக்கியமான நெறிமுறை மற்றும் பொறுப்பான பயன்பாட்டு நடத்தைகளை விட்டுவிடுகிறது. இந்த எச்சரிக்கைகள், AI சரளத்தன்மை குறியீடு இந்த குறிப்பிட்ட மக்கள்தொகைக்கு ஒரு அடிப்படையையும், ஆழமான, நீண்டகால ஆராய்ச்சிக்கான ஒரு தொடக்கப் புள்ளியையும் வழங்குகிறது என்பதைக் குறிக்கிறது.
இந்த வரம்புகள் இருந்தபோதிலும், AI சரளத்தன்மை குறியீடு பயனுள்ள மனித-AI ஒத்துழைப்பைப் புரிந்துகொள்வதற்கும் வளர்ப்பதற்கும் ஒரு குறிப்பிடத்தக்க படியாகும். AI கருவிகள் தொடர்ந்து உருவாகும்போது, விமர்சன ரீதியாகவும், மீண்டும் மீண்டும் செய்யக்கூடியதாகவும், பொறுப்புணர்வுடனும் செயல்படும் திறன்களுடன் பயனர்களுக்கு அதிகாரமளிப்பது, இந்த தொழில்நுட்பத்தின் முழு திறனையும் உணர்ந்து அதன் அபாயங்களைக் குறைப்பதற்கான மையமாக இருக்கும். இந்த ஆரம்ப அறிக்கை எதிர்கால ஆராய்ச்சிக்கான களத்தை அமைக்கிறது, மேலும் சரளமாகவும் பயனுள்ளதாகவும் AI-இயங்கும் எதிர்காலத்தை உருவாக்குவதில் பயனர்கள் மற்றும் உருவாக்குநர்கள் இருவருக்கும் வழிகாட்ட உறுதியளிக்கிறது.
அடிக்கடி கேட்கப்படும் கேள்விகள்
What is the Anthropic AI Fluency Index?
How is AI fluency measured by Anthropic?
What is the 'iteration and refinement effect' in AI fluency?
Why do users become less evaluative when creating artifacts with AI?
How can individuals improve their AI fluency according to Anthropic?
What are the limitations of the AI Fluency Index study?
புதுப்பிப்புகளைப் பெறுங்கள்
சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.
