Code Velocity
Корпоративен ИИ

Управление на ИИ: Разузнаване за рискове при агентни системи

·5 мин четене·AWS·Оригинален източник
Сподели
Табло за разузнаване за рискове в ИИ, показващо цялостен преглед на състоянието на агентна система.

title: "Управление на ИИ: Разузнаване за рискове при агентни системи" slug: "can-your-governance-keep-pace-with-your-ai-ambitions-ai-risk-intelligence-in-the-agentic-era" date: "2026-04-01" lang: "bg" source: "https://aws.amazon.com/blogs/machine-learning/can-your-governance-keep-pace-with-with-your-ai-ambitions-ai-risk-intelligence-in-the-agentic-era/" category: "Корпоративен ИИ" keywords:

  • управление на ИИ
  • агентен ИИ
  • разузнаване за рискове в ИИ
  • AWS
  • корпоративен ИИ
  • сигурност на ИИ
  • отговорен ИИ
  • съответствие с ИИ
  • управление на риска
  • автоматизирано управление
  • генеративен ИИ
  • безопасност на ИИ meta_description: "Разгледайте как AI Risk Intelligence (AIRI) от AWS революционизира управлението на ИИ за агентни системи, осигурявайки сигурност и съответствие в недетерминираната ера на ИИ." image: "/images/articles/can-your-governance-keep-pace-with-your-ai-ambitions-ai-risk-intelligence-in-the-agentic-era.png" image_alt: "Табло за разузнаване за рискове в ИИ, показващо цялостен преглед на състоянието на агентна система." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Какво представлява агентният ИИ и защо създава нови предизвикателства пред управлението?" answer: "Агентният ИИ се отнася до системи с изкуствен интелект, които функционират недетерминирано, което означава, че не следват фиксирани, предсказуеми модели. Вместо това те се адаптират, разсъждават и действат независимо, избирайки различни инструменти и подходи, докато работят. Това рязко контрастира с традиционните, статични софтуерни системи, където входните данни надеждно водят до предсказуеми изходни резултати. Тази недетерминирана природа предизвиква традиционните рамки за управление, които са били създадени за предсказуеми внедрявания, като създава сложности в сигурността, съответствието и наблюдаемостта. Агентният ИИ може да доведе до непоследователни позиции по отношение на сигурността и пропуски в съответствието, тъй като неговите действия, дори и злонамерени, могат да възникнат в рамките на законно предоставени разрешения, което затруднява откриването им от стандартни инструменти."
  • question: "Какво е AI Risk Intelligence (AIRI) и кой го е разработил?" answer: "AI Risk Intelligence (AIRI) е автоматизирано решение за управление от корпоративен клас, разработено от AWS Generative AI Innovation Center. То е предназначено да се справи с уникалните предизвикателства пред управлението, породени от агентните ИИ системи. AIRI автоматизира оценката на контролите за сигурност, операции и управление, като ги консолидира в единна, непрекъсната перспектива по време на целия жизнен цикъл на агента. Разработката му се ръководи от стабилната Рамка за най-добри практики за отговорен ИИ на AWS, целяща да помогне на организациите да внедряват надеждни ИИ системи, като интегрира съображенията за отговорен ИИ от проектирането до пост-продукцията."
  • question: "Как AIRI се справя със 'Злоупотреба и експлоатация на инструменти' в агентните системи?" answer: "AIRI се справя със 'Злоупотреба и експлоатация на инструменти' – един от 10-те най-големи риска на OWASP за агентни приложения, като осигурява непрекъснато, автоматизирано управление, което оценява действията на агента спрямо неговия предвиден обхват. За разлика от традиционните инструменти за предотвратяване на загуба на данни или за мрежов мониторинг, които могат да пропуснат аномалии в рамките на оторизирани разрешения, AIRI интегрира сигурността директно в начина, по който работят агентите. То разсъждава върху доказателствата, за да определи дали използването на инструментите на агента, като достъп до имейл или календар, е в съответствие с установените стандарти за управление, дори ако действията технически са в рамките на предоставените разрешения. Това позволява ранно откриване на потенциално злонамерена или неволна злоупотреба с инструменти, която може да доведе до източване на данни или други нарушения."
  • question: "Какви рамки за управление може да операционализира AIRI?" answer: "AIRI е независима от рамки, което означава, че може да операционализира широк набор от стандарти за управление, вместо да бъде ограничена до конкретен набор от правила. Тя трансформира рамки като NIST AI Risk Management Framework, ISO стандарти и OWASP насоки от статични референтни документи в автоматизирани, непрекъснати оценки. Тази адаптивност позволява на AIRI да се калибрира спрямо специфичните стандарти за управление на организацията, включително вътрешни политики за прозрачност и специфични за индустрията изисквания за съответствие, което я прави приложима в различни агентни архитектури, индустрии и рискови профили, без да е необходимо преработка за всеки нов контекст."
  • question: "Как AIRI използва 'семантична ентропия' в процеса си на оценка?" answer: "AIRI използва 'семантична ентропия' като техника за засилване на надеждността на своите автоматизирани оценки за управление. След като извърши оценка на даден контрол, AIRI повтаря оценката многократно. Семантичната ентропия след това измерва последователността на изведените заключения от тези повторни изпълнения. Ако резултатите или оценките се различават значително, това сигнализира, че основните доказателства може да са двусмислени или недостатъчни за окончателно автоматизирано определяне. В такива случаи AIRI интелигентно задейства човешка проверка, предотвратявайки потенциално ненадеждни автоматизирани оценки и гарантирайки, че сложните или неясни ситуации получават необходимия човешки надзор и експертиза."
  • question: "Какви са основните предимства от внедряването на AIRI за корпоративни внедрявания на ИИ?" answer: "Внедряването на AIRI осигурява няколко ключови предимства за корпоративни внедрявания на ИИ. То премества организациите от реактивно, ръчно управление към проактивен, автоматизиран и непрекъснат надзор на агентни системи. Предимствата включват постигане на последователна позиция по отношение на сигурността в сложни агентни работни потоци, затваряне на пропуски в съответствието чрез непрекъсната оценка спрямо различни стандарти (NIST, ISO, OWASP) и подобряване на видимостта на поведението и рисковете на агентите за бизнес заинтересованите страни. Чрез автоматизиране на оценката на контролите за сигурност, операции и управление, AIRI позволява на организациите уверено да разширяват своите амбиции за ИИ, да намаляват ръчните усилия за одит и да изграждат доверие в своите ИИ системи, като вграждат принципите на отговорния ИИ през целия жизнен цикъл."

Ерата на агентния ИИ: Преоформяне на корпоративното управление на ИИ

Пейзажът на ИИ се развива бързо, навлизайки в „агентна ера“, където ИИ системите работят с безпрецедентна автономност. Отминаха дните на предсказуемия, бинарен DevOps; агентният ИИ е недетерминиран, адаптира се и разсъждава независимо. Тази промяна на парадигмата представлява сериозно предизвикателство за традиционните рамки за управление на ИТ, които са били предназначени за статични, предсказуеми внедрявания. Организациите се борят с непоследователни позиции по отношение на сигурността, пропуски в съответствието и непрозрачни показатели за наблюдаемост при тези сложни взаимодействия между множество системи. Тази динамична среда налага нов подход към сигурността, операциите и управлението, разглеждани като взаимозависими измерения на здравето на агентните системи. Именно от тази критична нужда възниква AI Risk Intelligence (AIRI). Разработен от AWS Generative AI Innovation Center и изграден върху стабилната Рамка за най-добри практики за отговорен ИИ на AWS, AIRI е автоматизирано решение за управление от корпоративен клас, предназначено да внесе яснота и контрол в агентната ера.

Непредсказуемата природа на агентния ИИ и каскадни рискове

Основната характеристика на агентния ИИ е неговото недетерминирано поведение. За разлика от традиционния софтуер, задаването на един и същ въпрос два пъти на агент може да даде различни отговори, тъй като агентите самостоятелно избират инструменти и подходи, вместо да следват стриктни работни потоци. Тази гъвкавост означава, че качеството съществува в градиент, от перфектно до измислено, а не просто преминаване или провал. Следователно, предсказуемите зависимости и процеси отстъпиха място на автономни системи, които се адаптират, разсъждават и действат независимо.

Традиционното ИТ управление, изградено за статични внедрявания, не може ефективно да управлява тези сложни взаимодействия между множество системи. Това създава значителни "слепи петна". Например, Open Worldwide Application Security Project (OWASP) идентифицира „Злоупотреба и експлоатация на инструменти“ като един от основните рискове за агентни приложения. Разгледайте сценарий, при който корпоративен ИИ асистент, законно конфигуриран с достъп до имейл, календар и CRM, е компрометиран. Злонамерен актьор вгражда скрити инструкции в имейл. Когато потребител поиска невинно резюме, компрометираният агент, опериращ в рамките на предоставените си разрешения, търси чувствителни данни и ги извлича чрез покани за календар, като същевременно предоставя доброкачествен отговор, който прикрива нарушението. Стандартните инструменти за предотвратяване на загуба на данни и мрежовия мониторинг се провалят тук, защото действията, макар и злонамерени, се извършват в рамките на оторизирани параметри и не предизвикват движение на данни или мрежови аномалии по начини, които традиционните системи биха открили. Това подчертава как уязвимостите в сигурността в агентните системи могат да каскадират през множество операционни измерения едновременно, правейки традиционното, изолирано управление неефективно. Подобни сценарии подчертават значението на стратегии като проектиране на агенти, устойчиви на инжектиране на промптове от самото начало.

Представяме AI Risk Intelligence (AIRI): Промяна на парадигмата в управлението

За да преодолее пропастта между статичните контроли и динамичното поведение на агентите, AWS разработи AI Risk Intelligence (AIRI). AIRI предефинира сигурността, операциите и управлението като взаимосвързана рамка за „AI Risk Intelligence“. Това е автоматизирано решение за управление от корпоративен клас, което автоматизира оценката на контролите за сигурност, операции и управление, като ги консолидира в единна, приложима перспектива по време на целия жизнен цикъл на агента. Дизайнът на AIRI използва Рамката за най-добри практики за отговорен ИИ на AWS, която ръководи клиентите в интегрирането на съображенията за отговорен ИИ през целия жизнен цикъл на ИИ, позволявайки информирани дизайнерски решения и ускорявайки внедряването на надеждни ИИ системи. Това решение фундаментално променя управлението от реактивен, ръчен процес към проактивен, автоматизиран и непрекъснат такъв.

Това, което прави AIRI особено мощен, е неговата независима от рамки природа. Той не кодира твърдо правила за специфични заплахи, а се калибрира спрямо широк набор от стандарти за управление, включително NIST AI Risk Management Framework, ISO и OWASP. Това означава, че същият механизъм, който оценява контролите за сигурност на OWASP, може също така да оцени вътрешните политики за прозрачност на организацията или специфичните за индустрията изисквания за съответствие. Тази адаптивност гарантира, че AIRI остава релевантен в различни агентни архитектури, индустрии и развиващи се рискови профили, като разсъждава върху доказателства като непрекъснат, мащабируем одитор. Той трансформира абстрактните изисквания на рамката в конкретни, приложими оценки, вградени през целия жизнен цикъл на агента, от проектирането до пост-продукцията.

AIRI в действие: Операционализиране на автоматизирано управление

Нека отново разгледаме нашия пример с ИИ асистента, за да илюстрираме как AIRI операционализира автоматизираното управление. Представете си, че екип за разработка е създал Доказателство за концепция (PoC) за този ИИ асистент. Преди внедряване в производство, те използват AIRI. За да се установи основна оценка, се задейства възможността за автоматизиран преглед на техническата документация на AIRI. Този процес автоматично събира доказателства за изпълнение на контролите, оценявайки не само сигурността, но и критичните контроли за качество на операциите като прозрачност, контролируемост, обяснимост, безопасност и надеждност. Анализът обхваща дизайна на случая на употреба, неговата основна инфраструктура и съответните организационни политики, за да се гарантира съответствие с корпоративното управление и изискванията за съответствие.

Ето пример за видовете контроли, които AIRI може да оцени по време на тази фаза:

Категория на контролОписаниеФокус на оценката на AIRI
СигурностКриптиране на данни, контрол на достъпа, управление на уязвимостиПроверка на обработката на данни, достъпа до инструменти и потенциалните вектори за експлоатация.
ОперацииМониторинг, регистриране, реагиране на инцидентиОценка на наблюдаемостта на системата и възможностите за реакция.
ПрозрачностПроизход на модела, източници на данни, процес на вземане на решенияЯснота на вътрешните работни механизми на ИИ и произхода на данните.
КонтролируемостМеханизми за човешки надзор, точки за намеса, аварийно спиранеЕфективност на човека в процеса и механизмите за безопасност.
ОбяснимостОбосновка на действията на агента, интерпретируемост на резултатитеВъзможност да се разбере защо агентът е предприел конкретно действие.
БезопасностОткриване на пристрастия, етични насоки, показатели за справедливостПридържане към принципите на отговорния ИИ и смекчаване на вредните резултати.
НадеждностУстойчивост на противникови атаки, обработка на грешки, надеждностСпособност на системата да поддържа производителност при натоварване и срещу манипулация.
СъответствиеСпазване на регулации, индустриални стандарти, организационни политикиСъответствие със законови разпоредби и вътрешни рамки за управление.

За всяко измерение на контрол, AIRI изпълнява цикъл на разсъждение. Първо, той извлича специфични критерии за оценка от приложимата рамка за управление. След това извлича доказателства директно от артефактите на системата – включително архитектурни документи, конфигурации на агенти и организационни политики. И накрая, той разсъждава върху съответствието между изискванията на рамката и демонстрираните доказателства на системата, определяйки ефективността на прилагането на контрола. Този подход, базиран на разсъждения, позволява на AIRI да се адаптира към нови дизайни на агенти, развиващи се рамки и възникващи категории рискове, без да изисква преработка на основната му логика.

За да се повиши надеждността на тези оценки, AIRI използва техника, наречена семантична ентропия. Той повтаря всяка оценка многократно и измерва последователността на своите заключения. Ако резултатите се различават значително в различните изпълнения, това сигнализира, че доказателствата може да са двусмислени или недостатъчни. В такива случаи AIRI интелигентно задейства човешка проверка, предотвратявайки потенциално ненадеждни автоматизирани оценки и осигурявайки стабилен процес на управление. Този иновативен подход ефективно преодолява пропастта между абстрактните изисквания на рамката и конкретното поведение на агента, трансформирайки намерението за управление в структурирана, повтаряща се и мащабируема оценка в сложни агентни системи.

Заключение: Осигуряване на бъдещето на агентния ИИ

Появата на агентния ИИ бележи фундаментална промяна в начина, по който организациите трябва да подхождат към внедряването и управлението на ИИ. Ерата на предсказуемите, статични системи е приключила, заменена от динамични, недетерминирани агенти, които изискват ново ниво на усъвършенстване в управлението на риска. Традиционните модели на управление са просто недостатъчни, за да се справят с темпото и сложността на тези ИИ постижения. AI Risk Intelligence (AIRI) от AWS предоставя критично решение, предлагайки автоматизирана, цялостна и адаптивна рамка за осигуряване и управление на агентни системи. Чрез интегриране на сигурността, операциите и управлението в единна, непрекъсната перспектива, AIRI дава възможност на организациите уверено да преследват своите амбиции за ИИ, като същевременно поддържат принципите на отговорния ИИ и осигуряват съответствие. Докато организациите продължават да операционализират агентния ИИ, решения като AIRI ще бъдат незаменими за трансформирането на потенциалните рискове във възможности за иновации и растеж.

Често задавани въпроси

What is agentic AI and why does it pose new governance challenges?
Agentic AI refers to artificial intelligence systems that operate non-deterministically, meaning they don't follow fixed, predictable patterns. Instead, they adapt, reason, and act independently, selecting different tools and approaches as they work. This contrasts sharply with traditional, static software systems where inputs reliably lead to predictable outputs. This non-deterministic nature challenges traditional governance frameworks, which were designed for predictable deployments, by creating complexities in security, compliance, and observability. Agentic AI can lead to inconsistent security postures and compliance gaps because its actions, even if malicious, might occur within legitimately granted permissions, making detection difficult for standard tools.
What is AI Risk Intelligence (AIRI) and who developed it?
AI Risk Intelligence (AIRI) is an enterprise-grade automated governance solution developed by the AWS Generative AI Innovation Center. It is designed to address the unique governance challenges posed by agentic AI systems. AIRI automates the assessment of security, operations, and governance controls, consolidating them into a single, continuous viewpoint across the entire agentic lifecycle. Its development is guided by the robust AWS Responsible AI Best Practices Framework, aiming to help organizations deploy trusted AI systems by integrating responsible AI considerations from design through post-production.
How does AIRI address 'Tool Misuse and Exploitation' in agentic systems?
AIRI addresses 'Tool Misuse and Exploitation,' an OWASP Top 10 risk for agentic applications, by providing continuous, automated governance that evaluates an agent's actions against its intended scope. Unlike traditional data loss prevention or network monitoring tools that might miss anomalies within authorized permissions, AIRI integrates security directly into how agents operate. It reasons over evidence to determine if an agent's use of its tools, such as email or calendar access, aligns with established governance standards, even if the actions are technically within granted permissions. This allows for early detection of potentially malicious or unintended tool misuse that could lead to data exfiltration or other breaches.
What governance frameworks can AIRI operationalize?
AIRI is framework-agnostic, meaning it can operationalize a wide array of governance standards rather than being limited to a specific set of rules. It transforms frameworks such as the NIST AI Risk Management Framework, ISO standards, and OWASP guidelines from static reference documents into automated, continuous evaluations. This adaptability allows AIRI to calibrate against an organization's specific governance standards, including internal transparency policies and industry-specific compliance requirements, making it applicable across diverse agent architectures, industries, and risk profiles without needing re-engineering for each new context.
How does AIRI utilize 'semantic entropy' in its evaluation process?
AIRI utilizes 'semantic entropy' as a technique to strengthen the reliability of its automated governance judgments. After performing an evaluation of a control, AIRI repeats the assessment multiple times. Semantic entropy then measures the consistency of the conclusions drawn across these repeated runs. If the outputs or judgments vary significantly, it signals that the underlying evidence might be ambiguous or insufficient for a definitive automated determination. In such cases, AIRI intelligently triggers a human review, preventing potentially unreliable automated judgments and ensuring that complex or unclear situations receive necessary human oversight and expertise.
What are the key benefits of implementing AIRI for enterprise AI deployments?
Implementing AIRI provides several key benefits for enterprise AI deployments. It moves organizations from reactive, manual governance to proactive, automated, and continuous oversight of agentic systems. Benefits include achieving a consistent security posture across complex agentic workflows, closing compliance gaps through continuous evaluation against various standards (NIST, ISO, OWASP), and enhancing visibility into agent behavior and risks for business stakeholders. By automating the assessment of security, operations, and governance controls, AIRI allows organizations to scale their AI ambitions confidently, reduce manual audit efforts, and build trust in their AI systems by embedding responsible AI principles throughout the entire lifecycle.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели