Code Velocity
AI ระดับองค์กร

ธรรมาภิบาล AI: การวิเคราะห์ความเสี่ยงสำหรับระบบ AI เชิงตัวแทน

·5 นาทีอ่าน·AWS·แหล่งที่มา
แชร์
แดชบอร์ดการวิเคราะห์ความเสี่ยง AI แสดงภาพรวมที่ครอบคลุมของสถานะระบบ AI เชิงตัวแทน

ยุค AI เชิงตัวแทน: การปรับเปลี่ยนธรรมาภิบาล AI ระดับองค์กร

ภูมิทัศน์ของ AI กำลังพัฒนาอย่างรวดเร็ว ก้าวเข้าสู่ 'ยุคเชิงตัวแทน' ที่ระบบ AI ทำงานด้วยความเป็นอิสระอย่างไม่เคยมีมาก่อน ยุคของ DevOps ที่คาดเดาได้และเป็นแบบไบนารีได้ผ่านพ้นไปแล้ว AI เชิงตัวแทนเป็นระบบที่ไม่สามารถคาดเดาผลลัพธ์ได้ สามารถปรับตัวและคิดวิเคราะห์ได้อย่างอิสระ การเปลี่ยนแปลงกระบวนทัศน์นี้ก่อให้เกิดความท้าทายอย่างมากต่อกรอบธรรมาภิบาลด้านไอทีแบบดั้งเดิม ซึ่งออกแบบมาสำหรับการใช้งานแบบคงที่และคาดการณ์ได้ องค์กรต่างๆ กำลังเผชิญกับสถานะความปลอดภัยที่ไม่สอดคล้องกัน ช่องว่างในการปฏิบัติตามข้อกำหนด และการวัดค่าการตรวจสอบที่ไม่ชัดเจนสำหรับการปฏิสัมพันธ์ของระบบหลายระบบที่ซับซ้อนเหล่านี้ สภาพแวดล้อมที่ไม่หยุดนิ่งนี้จำเป็นต้องมีแนวทางใหม่ด้านความปลอดภัย การดำเนินงาน และธรรมาภิบาล ซึ่งถูกมองว่าเป็นมิติที่พึ่งพาอาศัยกันของสุขภาพระบบ AI เชิงตัวแทน และจากความต้องการที่สำคัญนี้เองที่ AI Risk Intelligence (AIRI) ได้ถือกำเนิดขึ้น AIRI พัฒนาโดย AWS Generative AI Innovation Center และสร้างขึ้นบนกรอบการทำงาน AWS Responsible AI Best Practices Framework ที่แข็งแกร่ง เป็นโซลูชันธรรมาภิบาลอัตโนมัติระดับองค์กรที่ออกแบบมาเพื่อนำความชัดเจนและการควบคุมมาสู่ยุค AI เชิงตัวแทน

ลักษณะที่ไม่สามารถคาดเดาได้และความเสี่ยงที่ต่อเนื่องของ AI เชิงตัวแทน

ลักษณะสำคัญของ AI เชิงตัวแทนคือพฤติกรรมที่ไม่สามารถคาดเดาผลลัพธ์ได้ ไม่เหมือนซอฟต์แวร์แบบดั้งเดิม การถามคำถามเดียวกันกับตัวแทนสองครั้งอาจให้คำตอบที่แตกต่างกัน เนื่องจากตัวแทนจะเลือกเครื่องมือและวิธีการอย่างอิสระแทนที่จะทำตามขั้นตอนที่ตายตัว ความยืดหยุ่นนี้หมายความว่าคุณภาพมีอยู่ในระดับที่แตกต่างกัน ตั้งแต่สมบูรณ์แบบไปจนถึงถูกสร้างขึ้นมา แทนที่จะเป็นเพียงแค่ผ่านหรือไม่ผ่าน ผลที่ตามมาคือ การพึ่งพาอาศัยกันและกระบวนการที่คาดเดาได้ได้ถูกแทนที่ด้วยระบบอัตโนมัติที่ปรับตัว คิดวิเคราะห์ และดำเนินการอย่างอิสระ

ธรรมาภิบาลด้านไอทีแบบดั้งเดิมที่สร้างขึ้นสำหรับการใช้งานแบบคงที่ ไม่สามารถจัดการกับการปฏิสัมพันธ์ของระบบหลายระบบที่ซับซ้อนเหล่านี้ได้อย่างมีประสิทธิภาพ สิ่งนี้สร้างจุดบอดที่สำคัญ ตัวอย่างเช่น Open Worldwide Application Security Project (OWASP) ระบุว่า "การใช้เครื่องมือในทางที่ผิดและการแสวงหาผลประโยชน์" (Tool Misuse and Exploitation) เป็นความเสี่ยงอันดับต้นๆ สำหรับแอปพลิเคชันเชิงตัวแทน ลองพิจารณาสถานการณ์ที่ผู้ช่วย AI ระดับองค์กร ซึ่งได้รับการกำหนดค่าอย่างถูกต้องด้วยการเข้าถึงอีเมล ปฏิทิน และ CRM ถูกบุกรุก ผู้ไม่หวังดีฝังคำสั่งที่ซ่อนไว้ในอีเมล เมื่อผู้ใช้ร้องขอสรุปที่ไม่เป็นอันตราย ตัวแทนที่ถูกบุกรุก ซึ่งทำงานภายใต้สิทธิ์ที่ได้รับอนุญาต จะค้นหาข้อมูลที่ละเอียดอ่อนและขโมยข้อมูลออกไปทางคำเชิญในปฏิทิน ทั้งหมดนี้ในขณะที่ให้การตอบสนองที่ไม่เป็นอันตรายซึ่งปกปิดการละเมิด เครื่องมือป้องกันข้อมูลสูญหายและเครื่องมือตรวจสอบเครือข่ายมาตรฐานจะล้มเหลวในกรณีนี้ เพราะการกระทำดังกล่าว แม้จะเป็นอันตราย แต่ก็เกิดขึ้นภายในพารามิเตอร์ที่ได้รับอนุญาต และไม่จำเป็นต้องกระตุ้นการเคลื่อนย้ายข้อมูลหรือความผิดปกติของเครือข่ายในลักษณะที่ระบบดั้งเดิมจะตรวจจับได้ สิ่งนี้เน้นย้ำว่าช่องโหว่ด้านความปลอดภัยในระบบ AI เชิงตัวแทนสามารถส่งผลกระทบต่อเนื่องไปยังมิติการดำเนินงานหลายมิติพร้อมกันได้อย่างไร ทำให้ธรรมาภิบาลแบบดั้งเดิมที่แยกส่วนขาดประสิทธิภาพ สถานการณ์ดังกล่าวเน้นย้ำถึงความสำคัญของกลยุทธ์ต่างๆ เช่น การออกแบบตัวแทนให้ต้านทานการโจมตีแบบ Prompt Injection ตั้งแต่เริ่มต้น

ขอแนะนำ AI Risk Intelligence (AIRI): การเปลี่ยนแปลงกระบวนทัศน์ด้านธรรมาภิบาล

เพื่อเชื่อมช่องว่างระหว่างการควบคุมแบบคงที่และพฤติกรรมเชิงตัวแทนแบบไดนามิก AWS ได้พัฒนา AI Risk Intelligence (AIRI) ขึ้นมา AIRI นิยามความปลอดภัย การดำเนินงาน และธรรมาภิบาลใหม่ให้เป็นกรอบการทำงาน "AI Risk Intelligence" ที่เชื่อมโยงกัน AIRI เป็นโซลูชันธรรมาภิบาลอัตโนมัติระดับองค์กรที่ทำการประเมินการควบคุมด้านความปลอดภัย การดำเนินงาน และธรรมาภิบาลโดยอัตโนมัติ โดยรวมทั้งหมดเข้าเป็นมุมมองเดียวที่นำไปปฏิบัติได้ตลอดวงจรชีวิตของระบบเชิงตัวแทน การออกแบบของ AIRI ใช้ประโยชน์จาก AWS Responsible AI Best Practices Framework ซึ่งช่วยแนะนำลูกค้าในการผสานรวมข้อพิจารณาด้าน AI ที่มีความรับผิดชอบตลอดวงจรชีวิตของ AI ทำให้สามารถตัดสินใจออกแบบได้อย่างมีข้อมูลและเร่งการนำระบบ AI ที่เชื่อถือได้ไปใช้งาน โซลูชันนี้เปลี่ยนการกำกับดูแลจากกระบวนการที่ต้องตอบสนองด้วยตนเอง ไปสู่กระบวนการเชิงรุก อัตโนมัติ และต่อเนื่องโดยพื้นฐาน

สิ่งที่ทำให้ AIRI มีประสิทธิภาพเป็นพิเศษคือลักษณะที่ไม่ขึ้นกับกรอบการทำงาน (framework-agnostic) AIRI ไม่ได้มีการกำหนดกฎตายตัวสำหรับภัยคุกคามเฉพาะ แต่จะปรับเทียบกับมาตรฐานธรรมาภิบาลที่หลากหลาย รวมถึง NIST AI Risk Management Framework, ISO และ OWASP ซึ่งหมายความว่าเอนจินเดียวกันที่ประเมินการควบคุมความปลอดภัยของ OWASP สามารถประเมินนโยบายความโปร่งใสภายในองค์กร หรือข้อกำหนดการปฏิบัติตามข้อกำหนดเฉพาะอุตสาหกรรมได้เช่นกัน ความสามารถในการปรับตัวนี้ช่วยให้ AIRI ยังคงมีความเกี่ยวข้องกับสถาปัตยกรรมตัวแทน อุตสาหกรรม และโปรไฟล์ความเสี่ยงที่เปลี่ยนแปลงไป โดยวิเคราะห์หลักฐานเหมือนผู้ตรวจสอบที่ต่อเนื่องและปรับขนาดได้ AIRI เปลี่ยนข้อกำหนดกรอบการทำงานที่เป็นนามธรรมให้เป็นการประเมินที่ชัดเจนและนำไปปฏิบัติได้ ซึ่งฝังอยู่ตลอดวงจรชีวิตของระบบเชิงตัวแทน ตั้งแต่การออกแบบไปจนถึงหลังการผลิต

AIRI ในการปฏิบัติงาน: การนำธรรมาภิบาลอัตโนมัติมาใช้

มาทบทวนตัวอย่างผู้ช่วย AI ของเราอีกครั้ง เพื่อแสดงให้เห็นว่า AIRI นำธรรมาภิบาลอัตโนมัติมาใช้งานอย่างไร สมมติว่าทีมพัฒนาได้สร้าง Proof of Concept (POC) สำหรับผู้ช่วย AI นี้ ก่อนที่จะนำไปใช้งานจริง พวกเขาจะใช้ AIRI เพื่อสร้างการประเมินพื้นฐาน ความสามารถในการตรวจสอบเอกสารทางเทคนิคอัตโนมัติของ AIRI จะถูกนำมาใช้ กระบวนการนี้จะรวบรวมหลักฐานการดำเนินการควบคุมโดยอัตโนมัติ ไม่เพียงแต่ประเมินความปลอดภัยเท่านั้น แต่ยังรวมถึงการควบคุมคุณภาพการดำเนินงานที่สำคัญ เช่น ความโปร่งใส ความสามารถในการควบคุม ความสามารถในการอธิบาย ความปลอดภัย และความทนทาน การวิเคราะห์ครอบคลุมการออกแบบกรณีการใช้งาน โครงสร้างพื้นฐานที่เกี่ยวข้อง และนโยบายองค์กรที่เกี่ยวข้อง เพื่อให้มั่นใจถึงความสอดคล้องกับข้อกำหนดด้านธรรมาภิบาลและการปฏิบัติตามข้อกำหนดขององค์กร

นี่คือตัวอย่างประเภทของการควบคุมที่ AIRI อาจประเมินในระหว่างขั้นตอนนี้:

หมวดหมู่การควบคุมคำอธิบายจุดเน้นการประเมินของ AIRI
ความปลอดภัยการเข้ารหัสข้อมูล, การควบคุมการเข้าถึง, การจัดการช่องโหว่การตรวจสอบการจัดการข้อมูล, การเข้าถึงเครื่องมือ และช่องทางที่เป็นไปได้สำหรับการโจมตี
การดำเนินงานการตรวจสอบ, การบันทึก, การตอบสนองต่อเหตุการณ์การประเมินความสามารถในการตรวจสอบและการตอบสนองของระบบ
ความโปร่งใสแหล่งที่มาของโมเดล, แหล่งข้อมูล, กระบวนการตัดสินใจความชัดเจนของการทำงานภายในของ AI และแหล่งที่มาของข้อมูล
ความสามารถในการควบคุมกลไกการกำกับดูแลโดยมนุษย์, จุดแทรกแซง, การหยุดฉุกเฉินประสิทธิภาพของโปรโตคอล Human-in-the-loop และ Fail-safe
ความสามารถในการอธิบายเหตุผลสำหรับการกระทำของตัวแทน, ความสามารถในการตีความผลลัพธ์ความสามารถในการเข้าใจว่าเหตุใดตัวแทนจึงดำเนินการบางอย่าง
ความปลอดภัยการตรวจจับอคติ, แนวทางจริยธรรม, เกณฑ์ความยุติธรรมการยึดมั่นในหลักการ AI ที่มีความรับผิดชอบ และการลดผลลัพธ์ที่เป็นอันตราย
ความทนทานความยืดหยุ่นต่อการโจมตีแบบ adversarial, การจัดการข้อผิดพลาด, ความน่าเชื่อถือความสามารถของระบบในการรักษาประสิทธิภาพภายใต้ความเครียดและการบิดเบือน
การปฏิบัติตามข้อกำหนดการปฏิบัติตามกฎระเบียบ, มาตรฐานอุตสาหกรรม, นโยบายองค์กรการสอดคล้องกับข้อกำหนดทางกฎหมายและกรอบธรรมาภิบาลภายใน

สำหรับแต่ละมิติของการควบคุม AIRI จะดำเนินกระบวนการคิดวิเคราะห์เป็นวงจร ก่อนอื่น AIRI จะดึงเกณฑ์การประเมินเฉพาะจากกรอบธรรมาภิบาลที่เกี่ยวข้อง ถัดมา AIRI จะดึงหลักฐานโดยตรงจากสิ่งประดิษฐ์ของระบบ ซึ่งรวมถึงเอกสารสถาปัตยกรรม การกำหนดค่าตัวแทน และนโยบายองค์กร สุดท้าย AIRI จะทำการวิเคราะห์ความสอดคล้องระหว่างข้อกำหนดของกรอบการทำงานกับหลักฐานที่ระบบแสดงให้เห็น เพื่อกำหนดประสิทธิภาพของการนำการควบคุมไปใช้ แนวทางที่อิงการคิดวิเคราะห์นี้ช่วยให้ AIRI สามารถปรับตัวเข้ากับการออกแบบตัวแทนใหม่ๆ กรอบการทำงานที่กำลังพัฒนา และหมวดหมู่ความเสี่ยงที่เกิดขึ้นใหม่ โดยไม่จำเป็นต้องมีการออกแบบตรรกะหลักใหม่

เพื่อเพิ่มความน่าเชื่อถือของการตัดสินใจเหล่านี้ AIRI ใช้เทคนิคที่เรียกว่า เอนโทรปีเชิงความหมาย (semantic entropy) โดยจะทำการประเมินแต่ละครั้งซ้ำหลายครั้งและวัดความสอดคล้องของข้อสรุปที่ได้ หากผลลัพธ์แตกต่างกันอย่างมีนัยสำคัญในการดำเนินการซ้ำๆ กัน แสดงว่าหลักฐานอาจไม่ชัดเจนหรือไม่เพียงพอ ในกรณีเช่นนี้ AIRI จะกระตุ้นให้มีการตรวจสอบโดยมนุษย์อย่างชาญฉลาด เพื่อป้องกันการตัดสินใจอัตโนมัติที่อาจไม่น่าเชื่อถือ และทำให้มั่นใจว่ากระบวนการธรรมาภิบาลมีความแข็งแกร่ง

แนวทางที่เป็นนวัตกรรมนี้ช่วยเชื่อมช่องว่างระหว่างข้อกำหนดกรอบการทำงานที่เป็นนามธรรมกับพฤติกรรมของตัวแทนที่จับต้องได้ โดยเปลี่ยนความตั้งใจด้านธรรมาภิบาลให้เป็นการประเมินที่มีโครงสร้าง ทำซ้ำได้ และปรับขนาดได้ทั่วทั้งระบบ AI เชิงตัวแทนที่ซับซ้อน

บทสรุป: การสร้างความมั่นคงในอนาคตของ AI เชิงตัวแทน

การเกิดขึ้นของ AI เชิงตัวแทนถือเป็นการเปลี่ยนแปลงพื้นฐานในการที่องค์กรต้องเข้าถึงการนำ AI มาใช้และการกำกับดูแล ยุคของระบบที่คาดเดาได้และคงที่ได้สิ้นสุดลงแล้ว โดยถูกแทนที่ด้วยตัวแทนที่เปลี่ยนแปลงอยู่ตลอดเวลาและไม่สามารถคาดเดาผลลัพธ์ได้ ซึ่งต้องใช้ระดับความซับซ้อนใหม่ในการบริหารความเสี่ยง รูปแบบธรรมาภิบาลแบบดั้งเดิมไม่เพียงพอที่จะก้าวตามความเร็วและความซับซ้อนของความก้าวหน้าของ AI เหล่านี้ได้ AI Risk Intelligence (AIRI) จาก AWS นำเสนอโซลูชันที่สำคัญ โดยเป็นกรอบการทำงานอัตโนมัติ ครอบคลุม และปรับเปลี่ยนได้สำหรับการรักษาความปลอดภัยและการกำกับดูแลระบบ AI เชิงตัวแทน ด้วยการรวมความปลอดภัย การดำเนินงาน และธรรมาภิบาลเข้าไว้ในมุมมองเดียวที่ต่อเนื่อง AIRI ช่วยให้องค์กรสามารถเดินหน้าตามความทะเยอทะยานด้าน AI ได้อย่างมั่นใจ พร้อมทั้งยึดมั่นในหลักการ AI ที่มีความรับผิดชอบและรับประกันการปฏิบัติตามข้อกำหนด ในขณะที่องค์กรยังคง นำ AI เชิงตัวแทนไปใช้งาน โซลูชันอย่าง AIRI จะมีความสำคัญอย่างยิ่งในการเปลี่ยนความเสี่ยงที่อาจเกิดขึ้นให้เป็นโอกาสสำหรับการสร้างสรรค์นวัตกรรมและการเติบโต

คำถามที่พบบ่อย

What is agentic AI and why does it pose new governance challenges?
Agentic AI refers to artificial intelligence systems that operate non-deterministically, meaning they don't follow fixed, predictable patterns. Instead, they adapt, reason, and act independently, selecting different tools and approaches as they work. This contrasts sharply with traditional, static software systems where inputs reliably lead to predictable outputs. This non-deterministic nature challenges traditional governance frameworks, which were designed for predictable deployments, by creating complexities in security, compliance, and observability. Agentic AI can lead to inconsistent security postures and compliance gaps because its actions, even if malicious, might occur within legitimately granted permissions, making detection difficult for standard tools.
What is AI Risk Intelligence (AIRI) and who developed it?
AI Risk Intelligence (AIRI) is an enterprise-grade automated governance solution developed by the AWS Generative AI Innovation Center. It is designed to address the unique governance challenges posed by agentic AI systems. AIRI automates the assessment of security, operations, and governance controls, consolidating them into a single, continuous viewpoint across the entire agentic lifecycle. Its development is guided by the robust AWS Responsible AI Best Practices Framework, aiming to help organizations deploy trusted AI systems by integrating responsible AI considerations from design through post-production.
How does AIRI address 'Tool Misuse and Exploitation' in agentic systems?
AIRI addresses 'Tool Misuse and Exploitation,' an OWASP Top 10 risk for agentic applications, by providing continuous, automated governance that evaluates an agent's actions against its intended scope. Unlike traditional data loss prevention or network monitoring tools that might miss anomalies within authorized permissions, AIRI integrates security directly into how agents operate. It reasons over evidence to determine if an agent's use of its tools, such as email or calendar access, aligns with established governance standards, even if the actions are technically within granted permissions. This allows for early detection of potentially malicious or unintended tool misuse that could lead to data exfiltration or other breaches.
What governance frameworks can AIRI operationalize?
AIRI is framework-agnostic, meaning it can operationalize a wide array of governance standards rather than being limited to a specific set of rules. It transforms frameworks such as the NIST AI Risk Management Framework, ISO standards, and OWASP guidelines from static reference documents into automated, continuous evaluations. This adaptability allows AIRI to calibrate against an organization's specific governance standards, including internal transparency policies and industry-specific compliance requirements, making it applicable across diverse agent architectures, industries, and risk profiles without needing re-engineering for each new context.
How does AIRI utilize 'semantic entropy' in its evaluation process?
AIRI utilizes 'semantic entropy' as a technique to strengthen the reliability of its automated governance judgments. After performing an evaluation of a control, AIRI repeats the assessment multiple times. Semantic entropy then measures the consistency of the conclusions drawn across these repeated runs. If the outputs or judgments vary significantly, it signals that the underlying evidence might be ambiguous or insufficient for a definitive automated determination. In such cases, AIRI intelligently triggers a human review, preventing potentially unreliable automated judgments and ensuring that complex or unclear situations receive necessary human oversight and expertise.
What are the key benefits of implementing AIRI for enterprise AI deployments?
Implementing AIRI provides several key benefits for enterprise AI deployments. It moves organizations from reactive, manual governance to proactive, automated, and continuous oversight of agentic systems. Benefits include achieving a consistent security posture across complex agentic workflows, closing compliance gaps through continuous evaluation against various standards (NIST, ISO, OWASP), and enhancing visibility into agent behavior and risks for business stakeholders. By automating the assessment of security, operations, and governance controls, AIRI allows organizations to scale their AI ambitions confidently, reduce manual audit efforts, and build trust in their AI systems by embedding responsible AI principles throughout the entire lifecycle.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์