Code Velocity
Penyelidikan AI

Indeks Kefasihan AI: Mengukur Kemahiran Kerjasama Manusia-AI

·7 min bacaan·Anthropic·Sumber asal
Kongsi
Grafik yang menggambarkan konsep kefasihan AI dan kerjasama manusia-AI, dengan titik data.

title: "Indeks Kefasihan AI: Mengukur Kemahiran Kerjasama Manusia-AI" slug: "fluency-index" date: "2026-03-03" lang: "ms" source: "https://www.anthropic.com/research/AI-fluency-index" category: "Penyelidikan AI" keywords:

  • Indeks Kefasihan AI
  • penyelidikan Anthropic
  • kerjasama Manusia-AI
  • pembangunan kemahiran AI
  • Iterasi dan penghalusan
  • penciptaan artifak AI
  • penilaian kritikal AI
  • Rangka Kerja Kefasihan AI 4D
  • penggunaan Claude.ai
  • tingkah laku pengguna AI
  • penggunaan AI yang bertanggungjawab
  • kecekapan AI meta_description: "Indeks Kefasihan AI baharu Anthropic mengukur kemahiran kerjasama Manusia-AI yang kritikal, menekankan kepentingan iterasi dan penilaian kritikal untuk penggunaan AI yang berkesan." image: "/images/articles/fluency-index.png" image_alt: "Grafik yang menggambarkan konsep kefasihan AI dan kerjasama manusia-AI, dengan titik data." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Apakah Indeks Kefasihan AI Anthropic?" answer: "Indeks Kefasihan AI Anthropic ialah metrik baharu yang dibangunkan oleh Anthropic untuk menilai sejauh mana individu mengembangkan kemahiran untuk menggunakan alat AI secara berkesan. Melangkaui hanya penggunaan, indeks ini menjejaki 11 tingkah laku yang boleh diperhatikan secara langsung yang mewakili kerjasama Manusia-AI yang selamat dan berkesan, berdasarkan Rangka Kerja Kefasihan AI 4D. Ia bertujuan untuk menyediakan ukuran asas kecekapan pengguna, membantu memahami bagaimana kemahiran kritikal ini berkembang apabila teknologi AI semakin disepadukan ke dalam kehidupan seharian. Kajian awal menganalisis hampir 10,000 perbualan di Claude.ai untuk mengenal pasti corak utama dalam interaksi pengguna dan pembangunan kemahiran."
  • question: "Bagaimanakah kefasihan AI diukur oleh Anthropic?" answer: "Kefasihan AI diukur dengan menjejaki kehadiran atau ketiadaan 11 penunjuk tingkah laku khusus semasa interaksi pengguna dengan Claude di Claude.ai. Penunjuk ini berasal daripada Rangka Kerja Kefasihan AI 4D yang lebih luas, yang mentakrifkan 24 tingkah laku kerjasama Manusia-AI yang selamat dan berkesan. Untuk kajian awal, Anthropic menggunakan alat analisis pemeliharaan privasi untuk meneliti 9,830 perbualan pelbagai giliran dalam tempoh 7 hari. Tingkah laku seperti 'iterasi dan penghalusan', 'mempersoalkan alasan', dan 'mengenal pasti konteks yang hilang' diperhatikan dan diklasifikasikan sebagai hadir atau tidak hadir dalam setiap perbualan, menyediakan asas kuantitatif untuk kecekapan AI."
  • question: "Apakah 'kesan iterasi dan penghalusan' dalam kefasihan AI?" answer: "Kesan 'iterasi dan penghalusan' merujuk kepada korelasi kuat yang didapati antara pengguna yang membina pertukaran sebelumnya untuk memperhalusi kerja mereka dengan AI, dan paparan tingkah laku kefasihan AI utama yang lain. Perbualan yang menunjukkan iterasi dan penghalusan — bermakna pengguna tidak hanya menerima respons AI yang pertama tetapi secara aktif melibatkan diri dalam soalan susulan, bantahan, dan pelarasan — menunjukkan kadar penunjuk kefasihan lain yang jauh lebih tinggi. Sebagai contoh, perbualan berulang ini 5.6 kali lebih berkemungkinan melibatkan pengguna mempersoalkan alasan Claude dan 4 kali lebih berkemungkinan mengenal pasti konteks yang hilang, menggariskan kepentingan penglibatan berterusan dan dinamik untuk mengembangkan kecekapan AI."
  • question: "Mengapakah pengguna kurang melakukan penilaian apabila mencipta artifak dengan AI?" answer: "Penyelidikan Anthropic mendapati bahawa apabila pengguna melibatkan AI untuk mencipta artifak seperti kod, dokumen, atau alat interaktif, mereka cenderung menjadi lebih 'direktif' tetapi secara paradoks kurang 'menilai'. Ini bermakna pengguna lebih cenderung untuk menjelaskan matlamat dan memberikan contoh, tetapi kurang cenderung untuk mempersoalkan alasan model, mengenal pasti konteks yang hilang, atau menyemak fakta. Penjelasan yang mungkin termasuk penampilan output AI yang digilap, yang mungkin menyebabkan pengguna mempercayai hasil tersebut secara pramatang, atau sifat tugas tertentu di mana estetika berfungsi mungkin melebihi ketepatan fakta. Walau bagaimanapun, corak ini menyerlahkan bidang kritikal untuk penambahbaikan dalam kerjasama Manusia-AI, menekankan keperluan untuk penilaian kritikal yang berterusan walaupun dengan output yang kelihatan lengkap."
  • question: "Bagaimanakah individu boleh meningkatkan kefasihan AI mereka mengikut Anthropic?" answer: "Anthropic mencadangkan tiga bidang utama untuk individu meningkatkan kefasihan AI mereka. Pertama, 'terus dalam perbualan' bermakna menganggap respons AI awal sebagai titik permulaan, bertanya soalan susulan, dan secara aktif memperhalusi output. Kedua, 'mempersoalkan output yang digilap' melibatkan penilaian kritikal artifak yang dihasilkan AI untuk ketepatan, kelengkapan, dan ketepatan logik, walaupun ia kelihatan sempurna. Ketiga, 'menetapkan syarat kerjasama' menggalakkan pengguna untuk mengarahkan AI secara eksplisit tentang cara berinteraksi, contohnya, dengan memintanya menjelaskan alasannya atau membantah andaian. Amalan ini bertujuan untuk memupuk penglibatan yang lebih mendalam dan pemikiran kritikal dalam interaksi Manusia-AI."
  • question: "Apakah batasan kajian Indeks Kefasihan AI?" answer: "Kajian Indeks Kefasihan AI awal mempunyai beberapa batasan penting. Sampel terhad kepada pengguna Claude.ai yang terlibat dalam perbualan pelbagai giliran selama seminggu pada Januari 2026, yang berkemungkinan condong ke arah pengguna awal dan mungkin tidak mewakili populasi yang lebih luas. Kajian ini juga hanya menilai 11 daripada 24 tingkah laku daripada Rangka Kerja Kefasihan AI 4D, memfokuskan semata-mata pada interaksi yang boleh diperhatikan secara langsung dalam antara muka sembang, oleh itu terlepas tingkah laku etika dan penggunaan bertanggungjawab yang penting yang berlaku secara luaran. Tambahan pula, klasifikasi binari tingkah laku mungkin mengabaikan demonstrasi yang bernuansa, dan ia tidak dapat mengambil kira 'tingkah laku tersirat' di mana pengguna mungkin menilai output AI secara mental tanpa menyatakan penilaian kritikal mereka dalam sembang."

Kefasihan Dahulu: Indeks AI Anthropic untuk Kerjasama Mahir

Integrasi pesat alat AI ke dalam rutin harian adalah sesuatu yang sangat menakjubkan. Namun, apabila AI menjadi kehadiran yang ada di mana-mana, satu soalan kritikal timbul: adakah pengguna hanya mengguna pakai alat ini, atau adakah mereka membangunkan kemahiran yang diperlukan untuk memanfaatkannya dengan berkesan? Anthropic, peneraju dalam pembangunan AI yang bertanggungjawab, bertujuan untuk menjawab ini dengan Indeks Kefasihan AI mereka yang inovatif, laporan baharu yang direka untuk mengukur dan menjejaki evolusi kemahiran kerjasama Manusia-AI.

Laporan Pendidikan Anthropic sebelum ini mendedahkan bagaimana pelajar universiti dan pendidik menggunakan model canggih seperti Claude untuk tugas-tugas yang terdiri daripada penjanaan laporan hingga perancangan pelajaran. Walau bagaimanapun, kajian ini terutamanya memfokuskan pada apa yang dilakukan oleh pengguna. Indeks Kefasihan AI menyelami lebih dalam, meneroka sejauh mana individu berinteraksi dengan AI, memperkenalkan rangka kerja untuk memahami "kefasihan" dengan teknologi transformatif ini.

Menguraikan Kefasihan AI: Rangka Kerja 4D

Untuk mengukur kefasihan AI, Anthropic bekerjasama dengan Profesor Rick Dakan dan Joseph Feller untuk membangunkan Rangka Kerja Kefasihan AI 4D. Rangka kerja komprehensif ini mengenal pasti 24 tingkah laku khusus yang melambangkan kerjasama Manusia-AI yang selamat dan berkesan. Untuk tujuan kajian awal ini, Anthropic memfokuskan pada 11 tingkah laku yang boleh diperhatikan secara langsung dalam antara muka sembang Claude.ai. Baki 13 tingkah laku, yang merangkumi aspek kritikal seperti bersikap jujur tentang peranan AI dalam kerja atau mempertimbangkan akibat output yang dihasilkan AI, berlaku di luar sembang dan akan dinilai dalam penyelidikan kualitatif masa depan.

Menggunakan alat analisis pemeliharaan privasi, pasukan penyelidik mengkaji secara teliti 9,830 perbualan pelbagai giliran di Claude.ai dalam tempoh 7 hari pada Januari 2026. Set data yang luas ini menyediakan garis dasar yang kukuh untuk mengukur kehadiran atau ketiadaan 11 tingkah laku kefasihan yang boleh diperhatikan, membawa kepada penciptaan Indeks Kefasihan AI. Indeks ini menawarkan gambaran corak kerjasama semasa dan asas untuk menjejaki evolusi mereka apabila model AI maju.

Kuasa Iterasi dan Penghalusan dalam Interaksi AI

Salah satu penemuan yang paling menarik daripada Indeks Kefasihan AI ialah korelasi yang kuat antara iterasi dan penghalusan dan hampir semua tingkah laku kefasihan AI yang lain. Kajian itu mendedahkan bahawa 85.7% perbualan melibatkan pengguna yang membina pertukaran sebelumnya untuk memperhalusi kerja mereka, dan bukannya hanya menerima respons awal. Perbualan berulang ini menunjukkan kadar tingkah laku kefasihan lain yang jauh lebih tinggi, secara berkesan menggandakan kecekapan yang dilihat dalam sembang cepat dan bertukar-tukar.

Kesan Iterasi terhadap Tingkah Laku Kefasihan AI

Penunjuk Tingkah LakuPerbualan dengan Iterasi & Penghalusan (n=8,424)Perbualan tanpa Iterasi & Penghalusan (n=1,406)Faktor Peningkatan (Iteratif vs. Bukan Iteratif)
Mempersoalkan Alasan ClaudeTinggiRendah5.6x
Mengenal Pasti Konteks yang HilangTinggiRendah4x
Menjelaskan MatlamatTinggiSederhana~2x
Menentukan FormatTinggiSederhana~2x
Memberikan ContohTinggiSederhana~2x
Purata Tingkah Laku Kefasihan Tambahan2.671.332x

Jadual: Menggambarkan peningkatan prevalensi tingkah laku kefasihan dalam perbualan dengan iterasi dan penghalusan.

"Kesan iterasi dan penghalusan" ini menggariskan kepentingan untuk menganggap AI sebagai rakan pemikir dan bukannya hanya delegasi tugas. Pengguna yang secara aktif terlibat dalam dialog, membantah dan memperhalusi pertanyaan mereka, secara signifikan lebih berkemungkinan untuk menilai secara kritikal output AI, mempersoalkan alasannya, dan mengenal pasti konteks penting yang hilang. Ini selaras dengan konsep aliran kerja keagenan, di mana pengawasan manusia dan maklum balas berulang mendorong hasil yang lebih baik, seperti yang diterokai dalam perbincangan sekitar platform seperti Aliran Kerja Keagenan GitHub.

Pedang Bermata Dua Penciptaan Artifak AI

Walaupun iterasi meningkatkan kefasihan keseluruhan, laporan itu mendedahkan corak nuansa apabila pengguna mengarahkan AI untuk menghasilkan artifak seperti kod, dokumen, atau alat interaktif. Perbualan ini, yang mewakili 12.3% daripada sampel, menunjukkan pengguna menjadi lebih direktif tetapi secara mengejutkan kurang menilai.

Apabila mencipta artifak, pengguna lebih berkemungkinan untuk menjelaskan matlamat mereka (+14.7 mata peratusan), menentukan format (+14.5pp), dan memberikan contoh (+13.4pp). Walau bagaimanapun, kearahan yang meningkat ini tidak diterjemahkan kepada ketajaman yang lebih besar. Malah, pengguna kurang berkemungkinan untuk mengenal pasti konteks yang hilang (-5.2pp), menyemak fakta (-3.7pp), atau mempersoalkan alasan model (-3.1pp). Trend ini amat membimbangkan memandangkan tugas-tugas yang kompleks, yang sering dikaitkan dengan penciptaan artifak, adalah di mana model AI seperti Claude Opus 4.6 atau model canggih seperti GPT-5 (jika ia wujud secara meluas, walaupun pautan menunjuk kepada versi masa depan atau hipotetikal) paling berkemungkinan menghadapi kesukaran.

Fenomena ini boleh dikaitkan dengan output yang digilap dan kelihatan berfungsi yang sering dihasilkan oleh AI, yang mungkin menyebabkan pengguna terbuai dengan rasa lengkap palsu. Sama ada mereka mereka bentuk UI atau merangka analisis undang-undang, keupayaan untuk meneliti secara kritikal output AI tetap paling utama. Apabila model AI menjadi lebih canggih, risiko penerimaan tanpa kritikal terhadap output yang kelihatan sempurna meningkat, menjadikan kemahiran penilaian lebih berharga berbanding sebelumnya.

Memupuk Kefasihan AI Anda Sendiri

Berita baiknya ialah kefasihan AI, seperti mana-mana kemahiran, boleh dibangunkan. Berdasarkan penemuan mereka, Anthropic menawarkan nasihat praktikal untuk pengguna yang ingin meningkatkan kerjasama Manusia-AI mereka:

  1. Terus dalam Perbualan: Anggap respons AI awal sebagai titik permulaan. Libatkan diri dalam soalan susulan, cabar andaian, dan perhalusi permintaan anda secara berulang. Penglibatan aktif ini adalah peramal terkuat bagi tingkah laku kefasihan lain.
  2. Mempersoalkan Output yang Digilap: Apabila model AI menghasilkan sesuatu yang kelihatan lengkap dan tepat, berhenti seketika dan gunakan pemikiran kritis. Tanya: Adakah ini benar-benar tepat? Adakah terdapat sesuatu yang hilang? Adakah alasan itu masuk akal? Jangan biarkan kelicinan visual mengatasi penilaian kritis.
  3. Menetapkan Syarat Kerjasama: Secara proaktif tentukan bagaimana anda mahu AI berinteraksi dengan anda. Arahan eksplisit seperti "Bantah jika andaian saya salah," "Terangkan alasan anda kepada saya," atau "Beritahu saya apa yang anda tidak pasti" boleh mengubah dinamik secara fundamental, memupuk kerjasama yang lebih telus dan teguh.

Garis Dasar untuk Pembangunan Kemahiran AI Masa Depan

Penting untuk mengakui batasan kajian awal ini. Sampel, yang terdiri daripada pengguna Claude.ai pelbagai giliran dari awal 2026, berkemungkinan condong ke arah pengguna awal yang sudah selesa dengan AI, bukan populasi yang lebih luas. Kajian itu juga hanya memfokuskan pada tingkah laku yang boleh diperhatikan dalam antara muka sembang, meninggalkan tingkah laku etika dan penggunaan yang bertanggungjawab yang penting yang berlaku secara luaran. Kaveat ini bermakna Indeks Kefasihan AI menyediakan garis dasar untuk populasi khusus ini dan titik permulaan untuk penyelidikan yang lebih mendalam dan longitudinal.

Di sebalik batasan ini, Indeks Kefasihan AI menandakan langkah penting ke arah memahami dan memupuk kerjasama Manusia-AI yang berkesan. Apabila alat AI terus berkembang, memperkasakan pengguna dengan kemahiran untuk terlibat secara kritis, berulang, dan bertanggungjawab akan menjadi pusat untuk merealisasikan potensi penuh teknologi ini sambil mengurangkan risikonya. Laporan awal ini menyediakan asas untuk penyelidikan masa depan, menjanjikan untuk membimbing pengguna dan pembangun dalam membina masa depan yang lebih fasih dan bermanfaat yang dikuasakan oleh AI.

Soalan Lazim

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Kekal Dikemas Kini

Dapatkan berita AI terkini dalam peti masuk anda.

Kongsi