Code Velocity
Nghiên cứu AI

Chỉ số Trôi chảy AI: Đo lường Kỹ năng Hợp tác Giữa Người và AI

·7 phút đọc·Anthropic·Nguồn gốc
Chia sẻ
Đồ họa minh họa khái niệm về sự trôi chảy AI và hợp tác giữa người và AI, với các điểm dữ liệu.

title: "Chỉ số Trôi chảy AI: Đo lường Kỹ năng Hợp tác Giữa Người và AI" slug: "fluency-index" date: "2026-03-03" lang: "vi" source: "https://www.anthropic.com/research/AI-fluency-index" category: "Nghiên cứu AI" keywords:

  • "Chỉ số Trôi chảy AI"
  • "Nghiên cứu của Anthropic"
  • "Hợp tác giữa người và AI"
  • "Phát triển kỹ năng AI"
  • "Lặp lại và tinh chỉnh"
  • "Tạo tác phẩm AI"
  • "Đánh giá phê phán AI"
  • "Khung Trôi chảy AI 4D"
  • "Sử dụng Claude.ai"
  • "Hành vi người dùng AI"
  • "Sử dụng AI có trách nhiệm"
  • "Trình độ AI" meta_description: "Chỉ số Trôi chảy AI mới của Anthropic đo lường các kỹ năng hợp tác quan trọng giữa người và AI, nhấn mạnh tầm quan trọng của việc lặp lại và đánh giá phê phán để sử dụng AI hiệu quả." image: "/images/articles/fluency-index.png" image_alt: "Đồ họa minh họa khái niệm về sự trôi chảy AI và hợp tác giữa người và AI, với các điểm dữ liệu." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Chỉ số Trôi chảy AI của Anthropic là gì?" answer: "Chỉ số Trôi chảy AI của Anthropic là một chỉ số mới được Anthropic phát triển để đánh giá mức độ phát triển kỹ năng sử dụng các công cụ AI hiệu quả của các cá nhân. Vượt xa việc chỉ đơn thuần chấp nhận sử dụng, chỉ số này theo dõi 11 hành vi có thể quan sát trực tiếp, đại diện cho sự hợp tác an toàn và hiệu quả giữa người và AI, dựa trên Khung Trôi chảy AI 4D. Mục tiêu của nó là cung cấp một thước đo cơ sở về trình độ người dùng, giúp hiểu rõ cách những kỹ năng quan trọng này phát triển khi công nghệ AI ngày càng được tích hợp vào cuộc sống hàng ngày. Nghiên cứu ban đầu đã phân tích gần 10.000 cuộc hội thoại trên Claude.ai để xác định các mẫu hình chính trong tương tác người dùng và phát triển kỹ năng."
  • question: "Anthropic đo lường sự trôi chảy AI như thế nào?" answer: "Sự trôi chảy AI được đo lường bằng cách theo dõi sự hiện diện hoặc vắng mặt của 11 chỉ số hành vi cụ thể trong các tương tác của người dùng với Claude trên Claude.ai. Các chỉ số này được rút ra từ Khung Trôi chảy AI 4D rộng hơn, định nghĩa 24 hành vi hợp tác an toàn và hiệu quả giữa người và AI. Đối với nghiên cứu ban đầu, Anthropic đã sử dụng một công cụ phân tích bảo vệ quyền riêng tư để kiểm tra 9.830 cuộc hội thoại nhiều lượt trong khoảng thời gian 7 ngày. Các hành vi như 'lặp lại và tinh chỉnh,' 'đặt câu hỏi về lý do,' và 'xác định ngữ cảnh thiếu' đã được quan sát và phân loại là hiện diện hoặc vắng mặt trong mỗi cuộc hội thoại, cung cấp một cơ sở định lượng cho trình độ AI."
  • question: "Hiệu ứng 'lặp lại và tinh chỉnh' trong sự trôi chảy AI là gì?" answer: "Hiệu ứng 'lặp lại và tinh chỉnh' đề cập đến mối tương quan mạnh mẽ được tìm thấy giữa những người dùng xây dựng dựa trên các trao đổi trước đó để tinh chỉnh công việc của họ với AI, và việc thể hiện các hành vi trôi chảy AI quan trọng khác. Các cuộc hội thoại thể hiện sự lặp lại và tinh chỉnh—nghĩa là người dùng không chỉ chấp nhận phản hồi đầu tiên của AI mà còn tích cực tham gia vào các câu hỏi tiếp theo, phản biện và điều chỉnh—cho thấy tỷ lệ các chỉ số trôi chảy khác cao hơn đáng kể. Chẳng hạn, các cuộc hội thoại mang tính lặp lại này có khả năng người dùng đặt câu hỏi về lý do của Claude cao gấp 5,6 lần và có khả năng xác định ngữ cảnh thiếu cao gấp 4 lần, nhấn mạnh tầm quan trọng của sự tương tác bền vững, năng động để phát triển trình độ AI."
  • question: "Tại sao người dùng ít đánh giá hơn khi tạo tác phẩm với AI?" answer: "Nghiên cứu của Anthropic cho thấy khi người dùng sử dụng AI để tạo ra các tác phẩm như mã code, tài liệu hoặc công cụ tương tác, họ có xu hướng trở nên trực tiếp hơn nhưng lại ít đánh giá hơn một cách nghịch lý. Điều này có nghĩa là người dùng có nhiều khả năng làm rõ mục tiêu và cung cấp ví dụ, nhưng ít khả năng đặt câu hỏi về lý do của mô hình, xác định ngữ cảnh bị thiếu hoặc kiểm tra sự thật. Các giải thích có thể bao gồm vẻ ngoài bóng bẩy của các kết quả đầu ra do AI tạo ra, có thể khiến người dùng tin tưởng sớm vào kết quả, hoặc bản chất của một số nhiệm vụ mà tính thẩm mỹ chức năng có thể quan trọng hơn độ chính xác thực tế. Dù thế nào đi nữa, mô hình này nêu bật một lĩnh vực quan trọng cần cải thiện trong hợp tác giữa người và AI, nhấn mạnh sự cần thiết của việc đánh giá phê phán liên tục ngay cả với các kết quả đầu ra dường như đã hoàn chỉnh."
  • question: "Theo Anthropic, làm thế nào các cá nhân có thể cải thiện sự trôi chảy AI của mình?" answer: "Anthropic đề xuất ba lĩnh vực chính để các cá nhân nâng cao sự trôi chảy AI của mình. Thứ nhất, 'duy trì cuộc hội thoại' có nghĩa là coi các phản hồi ban đầu của AI như điểm khởi đầu, đặt câu hỏi tiếp theo và tích cực tinh chỉnh kết quả đầu ra. Thứ hai, 'đặt câu hỏi về các kết quả đầu ra bóng bẩy' liên quan đến việc đánh giá phê phán các tác phẩm do AI tạo ra về độ chính xác, tính đầy đủ và tính hợp lý, ngay cả khi chúng có vẻ hoàn hảo. Thứ ba, 'thiết lập các điều khoản hợp tác' khuyến khích người dùng hướng dẫn rõ ràng AI về cách tương tác, ví dụ, bằng cách yêu cầu nó giải thích lý do hoặc phản biện các giả định. Những phương pháp này nhằm thúc đẩy sự tương tác sâu sắc hơn và tư duy phê phán trong các tương tác giữa người và AI."
  • question: "Những hạn chế của nghiên cứu Chỉ số Trôi chảy AI là gì?" answer: "Nghiên cứu Chỉ số Trôi chảy AI ban đầu có một số hạn chế quan trọng. Mẫu nghiên cứu chỉ giới hạn ở những người dùng Claude.ai tham gia vào các cuộc hội thoại nhiều lượt trong một tuần duy nhất vào tháng 1 năm 2026, điều này có khả năng nghiêng về phía những người dùng tiên phong đã quen thuộc với AI, chứ không phải dân số rộng lớn hơn. Nghiên cứu cũng chỉ tập trung vào các hành vi có thể quan sát được trong giao diện trò chuyện, bỏ qua các hành vi sử dụng có đạo đức và trách nhiệm quan trọng xảy ra bên ngoài. Hơn nữa, việc phân loại hành vi theo dạng nhị phân có thể bỏ qua các biểu hiện tinh tế, và nó không thể tính đến 'hành vi ngầm' nơi người dùng có thể tự đánh giá đầu ra của AI mà không thể hiện sự đánh giá phê phán của họ bằng lời nói trong cuộc trò chuyện."

Trôi chảy là ưu tiên hàng đầu: Chỉ số AI của Anthropic cho sự Hợp tác có Kỹ năng

Sự tích hợp nhanh chóng của các công cụ AI vào cuộc sống hàng ngày đã thực sự đáng kinh ngạc. Tuy nhiên, khi AI trở thành một hiện diện phổ biến, một câu hỏi quan trọng nảy sinh: liệu người dùng chỉ đơn thuần chấp nhận các công cụ này, hay họ đang phát triển các kỹ năng cần thiết để tận dụng chúng một cách hiệu quả? Anthropic, một công ty dẫn đầu trong phát triển AI có trách nhiệm, đặt mục tiêu trả lời câu hỏi này bằng Chỉ số Trôi chảy AI đột phá của họ, một báo cáo mới được thiết kế để đo lường và theo dõi sự phát triển của các kỹ năng hợp tác giữa người và AI.

Các Báo cáo Giáo dục trước đây của Anthropic đã làm sáng tỏ cách sinh viên đại học và nhà giáo dục sử dụng các mô hình tiên tiến như Claude cho các nhiệm vụ từ tạo báo cáo đến lập kế hoạch bài giảng. Tuy nhiên, những nghiên cứu này chủ yếu tập trung vào những gì người dùng đang làm. Chỉ số Trôi chảy AI đi sâu hơn, khám phá mức độ hiệu quả mà các cá nhân tương tác với AI, giới thiệu một khung để hiểu "sự trôi chảy" với công nghệ biến đổi này.

Giải mã sự Trôi chảy AI: Khung 4D

Để định lượng sự trôi chảy AI, Anthropic đã hợp tác với Giáo sư Rick Dakan và Joseph Feller để phát triển Khung Trôi chảy AI 4D. Khung toàn diện này xác định 24 hành vi cụ thể làm ví dụ cho sự hợp tác an toàn và hiệu quả giữa người và AI. Với mục đích của nghiên cứu ban đầu này, Anthropic tập trung vào 11 hành vi có thể quan sát trực tiếp trong giao diện trò chuyện của Claude.ai. 13 hành vi còn lại, bao gồm các khía cạnh quan trọng như trung thực về vai trò của AI trong công việc hoặc xem xét hậu quả của đầu ra do AI tạo ra, xảy ra bên ngoài cuộc trò chuyện và sẽ được đánh giá trong nghiên cứu định tính trong tương lai.

Sử dụng một công cụ phân tích bảo vệ quyền riêng tư, nhóm nghiên cứu đã tỉ mỉ nghiên cứu 9.830 cuộc hội thoại nhiều lượt trên Claude.ai trong khoảng thời gian 7 ngày vào tháng 1 năm 2026. Tập dữ liệu rộng lớn này đã cung cấp một cơ sở vững chắc để đo lường sự hiện diện hoặc vắng mặt của 11 hành vi trôi chảy có thể quan sát được, dẫn đến việc tạo ra Chỉ số Trôi chảy AI. Chỉ số này cung cấp một cái nhìn tổng quan về các mô hình hợp tác hiện tại và là nền tảng để theo dõi sự phát triển của chúng khi các mô hình AI tiến bộ.

Sức mạnh của Sự Lặp lại và Tinh chỉnh trong Tương tác AI

Một trong những phát hiện hấp dẫn nhất từ Chỉ số Trôi chảy AI là mối tương quan mạnh mẽ giữa sự lặp lại và tinh chỉnh và gần như tất cả các hành vi trôi chảy AI khác. Nghiên cứu cho thấy 85,7% các cuộc hội thoại liên quan đến việc người dùng xây dựng dựa trên các trao đổi trước đó để tinh chỉnh công việc của họ, thay vì chỉ đơn thuần chấp nhận phản hồi ban đầu. Các cuộc hội thoại mang tính lặp lại này đã thể hiện tỷ lệ các hành vi trôi chảy khác cao hơn đáng kể, hiệu quả là tăng gấp đôi trình độ được thấy trong các cuộc trò chuyện nhanh, qua lại.

Tác động của sự Lặp lại đối với Hành vi Trôi chảy AI

Chỉ số Hành viCác cuộc hội thoại có Lặp lại & Tinh chỉnh (n=8,424)Các cuộc hội thoại không có Lặp lại & Tinh chỉnh (n=1,406)Hệ số Gia tăng (Lặp lại so với Không Lặp lại)
Đặt câu hỏi về lý do của ClaudeCaoThấp5.6x
Xác định ngữ cảnh bị thiếuCaoThấp4x
Làm rõ mục tiêuCaoTrung bình~2x
Chỉ định định dạngCaoTrung bình~2x
Cung cấp ví dụCaoTrung bình~2x
Hành vi Trôi chảy Bổ sung Trung bình2.671.332x

Bảng: Minh họa sự gia tăng phổ biến của các hành vi trôi chảy trong các cuộc hội thoại có sự lặp lại và tinh chỉnh.

Hiệu ứng "lặp lại và tinh chỉnh" này nhấn mạnh tầm quan trọng của việc coi AI như một đối tác tư duy chứ không chỉ là một người ủy thác nhiệm vụ. Những người dùng tích cực tham gia vào đối thoại, phản biện và tinh chỉnh các truy vấn của họ, có khả năng cao hơn đáng kể trong việc đánh giá phê phán đầu ra của AI, đặt câu hỏi về lý do của nó và xác định ngữ cảnh bị thiếu quan trọng. Điều này phù hợp với khái niệm quy trình làm việc theo kiểu tác nhân (agentic workflows), nơi sự giám sát của con người và phản hồi lặp lại thúc đẩy kết quả tốt hơn, như đã được khám phá trong các cuộc thảo luận xung quanh các nền tảng như Quy trình làm việc Agentic trên GitHub.

Con dao hai lưỡi của việc Tạo Tác phẩm AI

Trong khi sự lặp lại thúc đẩy sự trôi chảy tổng thể, báo cáo đã phát hiện ra một mô hình tinh tế khi người dùng yêu cầu AI tạo ra tác phẩm như mã code, tài liệu hoặc công cụ tương tác. Các cuộc hội thoại này, chiếm 12,3% mẫu, cho thấy người dùng trở nên chỉ đạo hơn nhưng đáng ngạc nhiên là ít đánh giá hơn. Khi tạo tác phẩm, người dùng có nhiều khả năng làm rõ mục tiêu hơn (+14,7 điểm phần trăm), chỉ định định dạng (+14,5pp) và cung cấp ví dụ (+13,4pp). Tuy nhiên, sự chỉ đạo tăng lên này không chuyển thành khả năng phân biệt tốt hơn. Trên thực tế, người dùng ít có khả năng xác định ngữ cảnh bị thiếu (-5,2pp), kiểm tra sự thật (-3,7pp) hoặc đặt câu hỏi về lý do của mô hình (-3,1pp) một cách rõ rệt. Xu hướng này đặc biệt đáng lo ngại khi các tác vụ phức tạp, thường liên quan đến việc tạo tác phẩm, là nơi các mô hình AI như Claude Opus 4.6 hoặc thậm chí các mô hình tiên tiến như GPT-5 (nếu nó tồn tại rộng rãi, mặc dù liên kết trỏ đến một phiên bản trong tương lai hoặc giả định) có nhiều khả năng gặp khó khăn nhất.

Hiện tượng này có thể được quy cho các đầu ra bóng bẩy, trông có vẻ hoạt động tốt mà AI thường tạo ra, điều này có thể khiến người dùng bị ru ngủ bởi cảm giác hoàn thành giả tạo. Cho dù đó là thiết kế giao diện người dùng hay soạn thảo phân tích pháp lý, khả năng kiểm tra phê phán đầu ra của AI vẫn là tối quan trọng. Khi các mô hình AI trở nên phức tạp hơn, rủi ro chấp nhận mà không phê phán các đầu ra dường như hoàn hảo tăng lên, khiến các kỹ năng đánh giá trở nên có giá trị hơn bao giờ hết.

Nuôi dưỡng Sự Trôi chảy AI của Riêng bạn

Tin tốt là sự trôi chảy AI, giống như bất kỳ kỹ năng nào khác, đều có thể được phát triển. Dựa trên những phát hiện của mình, Anthropic đưa ra lời khuyên thiết thực cho người dùng muốn nâng cao khả năng hợp tác giữa người và AI của họ:

  1. Duy trì cuộc hội thoại: Coi các phản hồi ban đầu của AI như một điểm khởi đầu. Đặt câu hỏi tiếp theo, thách thức các giả định và liên tục tinh chỉnh yêu cầu của bạn. Sự tương tác tích cực này là yếu tố dự đoán mạnh mẽ nhất các hành vi trôi chảy khác.
  2. Đặt câu hỏi về các kết quả đầu ra bóng bẩy: Khi một mô hình AI tạo ra thứ gì đó có vẻ hoàn chỉnh và chính xác, hãy dừng lại và áp dụng tư duy phê phán. Hãy hỏi: Điều này có thực sự chính xác không? Có thiếu sót gì không? Lập luận có vững chắc không? Đừng để vẻ ngoài bóng bẩy lấn át khả năng đánh giá phê phán.
  3. Thiết lập các điều khoản hợp tác: Chủ động xác định cách bạn muốn AI tương tác với mình. Các hướng dẫn rõ ràng như "Hãy phản biện nếu giả định của tôi sai," "Giải thích cho tôi lý do của bạn," hoặc "Hãy cho tôi biết điều bạn không chắc chắn" có thể thay đổi cơ bản động lực, thúc đẩy một sự hợp tác minh bạch và mạnh mẽ hơn.

Một Nền tảng cho Sự Phát triển Kỹ năng AI trong Tương lai

Điều quan trọng là phải thừa nhận những hạn chế của nghiên cứu ban đầu này. Mẫu nghiên cứu, bao gồm những người dùng Claude.ai tương tác nhiều lượt từ đầu năm 2026, có khả năng nghiêng về phía những người dùng tiên phong đã quen thuộc với AI, chứ không phải dân số rộng lớn hơn. Nghiên cứu cũng chỉ tập trung vào các hành vi có thể quan sát được trong giao diện trò chuyện, bỏ qua các hành vi sử dụng có đạo đức và trách nhiệm quan trọng xảy ra bên ngoài. Những cảnh báo này có nghĩa là Chỉ số Trôi chảy AI cung cấp một nền tảng cho nhóm dân số cụ thể này và một điểm khởi đầu cho nghiên cứu sâu hơn, dài hạn.

Bất chấp những hạn chế này, Chỉ số Trôi chảy AI đánh dấu một bước tiến quan trọng trong việc hiểu và thúc đẩy sự hợp tác hiệu quả giữa người và AI. Khi các công cụ AI tiếp tục phát triển, việc trang bị cho người dùng các kỹ năng để tương tác một cách phê phán, lặp lại và có trách nhiệm sẽ là yếu tố cốt lõi để hiện thực hóa toàn bộ tiềm năng của công nghệ này, đồng thời giảm thiểu rủi ro. Báo cáo ban đầu này đặt nền tảng cho nghiên cứu trong tương lai, hứa hẹn sẽ hướng dẫn cả người dùng và nhà phát triển trong việc xây dựng một tương lai được hỗ trợ bởi AI trôi chảy và có lợi hơn.

Câu hỏi thường gặp

What is the Anthropic AI Fluency Index?
The Anthropic AI Fluency Index is a new metric developed by Anthropic to assess how well individuals are developing skills to effectively use AI tools. Moving beyond mere adoption, the index tracks 11 directly observable behaviors that represent safe and effective human-AI collaboration, based on the 4D AI Fluency Framework. It aims to provide a baseline measurement of user proficiency, helping to understand how these critical skills evolve as AI technology becomes more integrated into daily life. The initial study analyzed nearly 10,000 conversations on Claude.ai to identify key patterns in user interaction and skill development.
How is AI fluency measured by Anthropic?
AI fluency is measured by tracking the presence or absence of 11 specific behavioral indicators during user interactions with Claude on Claude.ai. These indicators are derived from the broader 4D AI Fluency Framework, which defines 24 behaviors of safe and effective human-AI collaboration. For the initial study, Anthropic utilized a privacy-preserving analysis tool to examine 9,830 multi-turn conversations over a 7-day period. Behaviors like 'iteration and refinement,' 'questioning reasoning,' and 'identifying missing context' were observed and classified as present or absent within each conversation, providing a quantitative baseline for AI proficiency.
What is the 'iteration and refinement effect' in AI fluency?
The 'iteration and refinement effect' refers to the strong correlation found between users who build on previous exchanges to refine their work with AI, and the display of other key AI fluency behaviors. Conversations exhibiting iteration and refinement—meaning users don't just accept the first AI response but actively engage in follow-up questions, pushbacks, and adjustments—showed significantly higher rates of other fluency indicators. For instance, these iterative conversations were 5.6 times more likely to involve users questioning Claude's reasoning and 4 times more likely to identify missing context, underscoring the importance of sustained, dynamic engagement for developing AI proficiency.
Why do users become less evaluative when creating artifacts with AI?
Anthropic's research found that when users engage AI to create artifacts such as code, documents, or interactive tools, they tend to become more directive but paradoxically less evaluative. This means users are more likely to clarify goals and provide examples, but less likely to question the model's reasoning, identify missing context, or check facts. Possible explanations include the polished appearance of AI-generated outputs, which might lead users to prematurely trust the results, or the nature of certain tasks where functional aesthetics might outweigh factual precision. Regardless, this pattern highlights a critical area for improvement in human-AI collaboration, emphasizing the need for continued critical assessment even with seemingly complete outputs.
How can individuals improve their AI fluency according to Anthropic?
Anthropic suggests three key areas for individuals to enhance their AI fluency. First, 'staying in the conversation' means treating initial AI responses as starting points, asking follow-up questions, and actively refining outputs. Second, 'questioning polished outputs' involves critically evaluating AI-generated artifacts for accuracy, completeness, and logical soundness, even if they appear perfect. Third, 'setting the terms of the collaboration' encourages users to explicitly instruct AI on how to interact, for example, by asking it to explain its reasoning or push back on assumptions. These practices aim to foster deeper engagement and critical thinking in human-AI interactions.
What are the limitations of the AI Fluency Index study?
The initial AI Fluency Index study has several important limitations. The sample is restricted to Claude.ai users engaging in multi-turn conversations during a single week in January 2026, which likely skews towards early adopters and may not represent the broader population. The study also only assesses 11 out of 24 behaviors from the 4D AI Fluency Framework, focusing solely on directly observable interactions within the chat interface, thus missing crucial ethical and responsible use behaviors that occur externally. Furthermore, the binary classification of behaviors might overlook nuanced demonstrations, and it cannot account for 'implicit behaviors' where users might mentally evaluate AI outputs without verbalizing their critical assessment in the chat.

Cập nhật tin tức

Nhận tin tức AI mới nhất qua email.

Chia sẻ