Code Velocity
AI 보안

NVIDIA NemoClaw: 보안을 갖춘 상시 작동 로컬 AI 에이전트

·7 분 소요·NVIDIA·원본 출처
공유
안전한 로컬 AI 에이전트 배포를 위해 OpenClaw 및 NemoClaw를 실행하는 NVIDIA DGX Spark 시스템

title: "NVIDIA NemoClaw: 보안을 갖춘 상시 작동 로컬 AI 에이전트" slug: "build-a-secure-always-on-local-ai-agent-with-nvidia-nemoclaw-and-openclaw" date: "2026-04-20" lang: "ko" source: "https://developer.nvidia.com/blog/build-a-secure-always-on-local-ai-agent-with-nvidia-nemoclaw-and-openclaw/" category: "AI 보안" keywords:

  • NVIDIA
  • NemoClaw
  • OpenClaw
  • AI 에이전트
  • 로컬 AI
  • DGX Spark
  • AI 보안
  • 샌드박싱
  • Nemotron
  • Ollama
  • 자율 AI
  • 온프레미스 AI meta_description: "DGX Spark에서 NVIDIA NemoClaw와 OpenClaw를 사용하여 안전하고 상시 작동하는 로컬 AI 에이전트를 구축하는 방법을 알아보세요. 강력한 샌드박싱 및 로컬 추론을 통해 자율 비서를 배포하여 데이터 개인 정보 보호 및 제어를 강화하세요." image: "/images/articles/build-a-secure-always-on-local-ai-agent-with-nvidia-nemoclaw-and-openclaw.png" image_alt: "안전한 로컬 AI 에이전트 배포를 위해 OpenClaw 및 NemoClaw를 실행하는 NVIDIA DGX Spark 시스템" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "NVIDIA NemoClaw는 무엇이며, AI 에이전트 보안을 어떻게 보장하나요?" answer: "NVIDIA NemoClaw는 안전하고 상시 작동하는 로컬 AI 에이전트를 배포하도록 설계된 오픈 소스 참조 스택입니다. 이는 NVIDIA OpenShell을 오케스트레이션하여 OpenClaw를 실행하며, OpenClaw는 메시징 플랫폼을 NVIDIA Nemotron과 같은 모델로 구동되는 AI 코딩 에이전트에 연결하는 자체 호스팅 게이트웨이입니다. 보안은 가장 중요하며, NemoClaw는 완전한 로컬 추론을 가능하게 하여 데이터가 장치를 떠나지 않도록 합니다. 또한 OpenShell이 관리하는 강력한 샌드박싱 및 격리를 통합하여 안전 경계를 강화하고, 자격 증명을 관리하며, 네트워크/API 호출을 프록시하여 에이전트 실행을 위한 '보호된 환경'을 생성하고 민감한 정보가 외부로 노출되는 것을 방지합니다."
  • question: "NemoClaw 스택의 주요 구성 요소와 그 기능은 무엇인가요?" answer: "NemoClaw 스택은 여러 중요한 구성 요소로 구성됩니다: NVIDIA NemoClaw는 전체 시스템의 오케스트레이터이자 설치자 역할을 합니다. NVIDIA OpenShell은 보안 런타임 및 게이트웨이를 제공하여 샌드박싱을 시행하고 외부 상호 작용을 안전하게 관리합니다. OpenClaw는 이 보안 샌드박스 내에서 작동하는 다중 채널 에이전트 프레임워크로, 채팅 플랫폼(예: Telegram), 에이전트 메모리 및 도구 통합을 관리합니다. AI의 '두뇌'는 NVIDIA Nemotron 3 Super 120B와 같은 에이전트 최적화 대규모 언어 모델(LLM)에 의해 제공되며, 높은 지시 준수 및 다단계 추론 기능을 제공합니다. 마지막으로, NVIDIA NIM 또는 Ollama와 같은 추론 배포는 LLM을 GPU에서 로컬로 실행합니다."
  • question: "DGX Spark와 같은 하드웨어에 로컬로 배포하는 것이 AI 에이전트에게 왜 중요한가요?" answer: "NVIDIA DGX Spark와 같은 전용 하드웨어에 로컬로 배포하는 것은 AI 에이전트에게 데이터 개인 정보 보호, 보안 및 제어 측면에서 중요한 이점을 제공합니다. 에이전트가 로컬에서 작동할 때, 모든 추론은 온프레미스에서 발생하므로 민감한 데이터를 제3자 클라우드 인프라로 보낼 필요가 없습니다. 이는 개인 정보 보호 위험을 최소화하고 엄격한 데이터 거버넌스 정책 준수를 보장합니다. 또한 로컬 배포는 사용자에게 런타임 환경에 대한 완전한 제어권을 부여하여 맞춤형 보안 구성, 하드웨어 수준 격리 및 실시간 정책 관리를 허용하며, 이는 로컬 파일 또는 API와 안전하게 상호 작용하는 자율 에이전트를 배포하는 데 필수적입니다."
  • question: "DGX Spark 시스템에 NemoClaw를 설정하기 위한 필수 전제 조건은 무엇인가요?" answer: "NVIDIA DGX Spark 시스템에 NemoClaw를 배포하려면 몇 가지 전제 조건을 충족해야 합니다. 최신 NVIDIA 드라이버가 설치된 Ubuntu 24.04 LTS를 실행하는 DGX Spark (GB10) 시스템이 필요합니다. Docker 버전 28.x 이상이 필요하며, 특히 GPU 가속을 가능하게 하려면 NVIDIA 컨테이너 런타임으로 구성되어야 합니다. Ollama는 로컬 모델 서빙 엔진으로 설치되어야 합니다. 마지막으로, 원격 액세스를 위해 Telegram의 @BotFather 서비스를 통해 Telegram 봇 토큰을 생성해야 합니다. 이러한 구성 요소를 적절히 구성하면 자율 AI 에이전트를 위한 원활하고 안전한 설정 프로세스가 보장됩니다."
  • question: "NemoClaw는 보안을 유지하면서 외부 연결 및 도구 통합을 어떻게 처리하나요?" answer: "NemoClaw는 OpenClaw 구성 요소를 통해 높은 수준의 보안을 유지하면서 외부 연결 및 도구 통합을 관리합니다. OpenClaw는 NVIDIA OpenShell이 시행하는 보안 샌드박스 내에 위치합니다. 이 샌드박싱은 에이전트가 Telegram과 같은 외부 메시징 플랫폼에 연결하고 도구를 사용할 수 있지만, 기본 시스템 리소스 및 민감한 정보에 대한 접근은 엄격하게 제어되도록 합니다. OpenShell은 프록시 역할을 하여 자격 증명을 관리하고 네트워크 및 파일 시스템 격리를 시행합니다. 이는 에이전트가 외부 세계와 상호 작용하고 코드를 실행할 수 있지만, 미리 정의되고 모니터링되며 실시간으로 승인된 정책 경계 내에서만 가능하며, 무제한 접근 및 잠재적인 데이터 유출을 방지합니다."

## NVIDIA와 함께하는 보안을 갖춘 상시 작동 로컬 AI 에이전트의 부상

인공지능의 지형은 단순한 질문-답변 시스템을 넘어 빠르게 진화하고 있습니다. 오늘날의 AI 에이전트는 파일을 읽고, API를 호출하며, 복잡한 다단계 워크플로우를 오케스트레이션할 수 있는 정교하고 장기적으로 실행되는 자율 비서로 변화하고 있습니다. 이러한 전례 없는 기능은 강력하지만, 특히 서드파티 클라우드 인프라에 의존할 때 상당한 보안 및 개인 정보 보호 문제를 야기합니다. NVIDIA는 혁신적인 오픈 소스 스택인 NVIDIA NemoClaw를 통해 이러한 우려를 정면으로 해결합니다. 이 솔루션은 NVIDIA OpenShell 및 OpenClaw를 활용하여 안전하고 상시 작동하는 로컬 AI 에이전트의 배포를 가능하게 하여 런타임 환경에 대한 완전한 제어권을 제공하고 NVIDIA DGX Spark와 같은 자체 하드웨어에서 데이터 개인 정보 보호를 보장합니다.

이 문서는 개발자가 이러한 강력한 AI 비서를 구축하는 방법을 심층적으로 다루며, 환경 구성부터 안전하게 샌드박싱된 에이전트를 Telegram과 같은 외부 통신 플랫폼과 통합하는 배포 프로세스를 안내합니다. 민감한 데이터가 로컬 장치를 절대 떠나지 않도록 고립되고 신뢰할 수 있는 AI 운영을 유지하는 데 중점을 둡니다.

## NVIDIA NemoClaw의 보안 에이전트 아키텍처 이해

본질적으로 NVIDIA NemoClaw는 보안 및 로컬 배포에 중점을 두고 자율 AI 에이전트를 오케스트레이션하고 관리하도록 세심하게 설계된 오픈 소스 참조 스택입니다. 여러 강력한 구성 요소를 통합하여 AI를 위한 '보호된 환경'을 생성하고, 작업이 제한되고 제어되도록 보장합니다. 이 생태계는 중요한 보안 런타임을 제공하는 OpenShell과 이 보안 환경 내에서 작동하는 다중 채널 에이전트 프레임워크인 OpenClaw를 중심으로 구축됩니다.

NemoClaw는 모델 추론부터 대화형 에이전트 기능에 이르는 배포 파이프라인을 단순화할 뿐만 아니라, 안내식 온보딩, 수명 주기 관리, 이미지 강화 및 버전 관리된 청사진을 제공합니다. 이러한 전체적인 접근 방식은 개발자가 민감한 정보 노출 또는 무제한 웹 접근 허용과 관련된 내재된 위험 없이 코드를 실행하고 도구를 사용할 수 있는 AI 에이전트를 자신 있게 배포할 수 있도록 보장합니다. NVIDIA Nemotron과 같은 오픈 모델의 통합은 투명하고 제어 가능한 AI 미래에 대한 약속을 더욱 공고히 합니다.

<br/>

| 구성 요소 | 정의 | 기능 | 사용 시점 |
| :-------------------------------------- | :------------------------------------------------------ | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | :---------------------------------------------------------------------------------- |
| [NVIDIA NemoClaw](https://github.com/NVIDIA/NemoClaw) | 오케스트레이션 레이어 및 설치 프로그램이 포함된 참조 스택 | 정책 및 추론을 사용하여 OpenClaw 및 OpenShell을 설치합니다. | 더 안전한 샌드박스에서 상시 작동하는 비서를 만드는 가장 빠른 방법. |
| [NVIDIA OpenShell](https://github.com/NVIDIA/OpenShell) | 보안 런타임 및 게이트웨이 | 안전 경계(샌드박싱)를 시행하고, 자격 증명을 관리하며, 네트워크/API 호출을 프록시합니다. | 민감한 정보 노출 또는 무제한 웹 접근 허용 없이 에이전트를 실행하기 위한 '보호된 환경'이 필요할 때. |
| [OpenClaw](https://github.com/OpenClaw/OpenClaw) | 다중 채널 에이전트 프레임워크 | 샌드박스 내에서 작동합니다. 채팅 플랫폼(Slack/Discord), 메모리 및 도구 통합을 관리합니다. | 메시징 앱 및 영구 메모리에 연결된 장기 실행 에이전트를 생성해야 할 때. |
| [NVIDIA Nemotron 3 Super 120B](https://build.nvidia.com/nvidia/nemotron-3-super-120b-a12b) | 에이전트 최적화 LLM (120B 매개변수) | 높은 지시 준수 및 다단계 추론 기능을 갖춘 '두뇌'를 제공합니다. | 도구를 사용하고 복잡한 워크플로우를 따라야 하는 상용 등급 비서용. |
| [NVIDIA NIM](https://docs.nvidia.com/nim/large-language-models/latest/get-started/index.html) / [Ollama](https://ollama.com/) | 추론 배포 | Nemotron 모델을 로컬에서 실행합니다. | GPU가 있고 LLM을 로컬에서 실행하려는 경우. |

<br/>
*표 1. NVIDIA NemoClaw 스택의 아키텍처 구성 요소*

이러한 아키텍처 설계는 AI 에이전트가 더욱 정교하고 자율적으로 변하더라도, 데이터 유출 또는 무단 접근과 같은 위험을 완화하면서 작업이 명확하게 정의된 보안 경계 내에서 유지되도록 보장합니다.

## 로컬 AI를 위한 DGX Spark 환경 설정

NVIDIA DGX Spark (GB10)와 같은 강력한 플랫폼에 NVIDIA NemoClaw를 배포하려면 로컬 AI의 잠재력을 최대한 활용하기 위한 특정 환경 구성이 필요합니다. 이는 대규모 언어 모델과 에이전트 프레임워크를 효율적이고 안전하게 실행하는 데 필수적인 GPU 가속 컨테이너화된 워크로드에 시스템이 준비되도록 보장합니다.

초기 단계에는 운영 체제, Docker 및 NVIDIA 컨테이너 런타임 준비가 포함됩니다. 최신 NVIDIA 드라이버가 설치된 Ubuntu 24.04 LTS를 실행하는 DGX Spark 시스템이 필요합니다. Docker는 특히 버전 28.x 이상이어야 하며, NVIDIA의 컨테이너 런타임과 원활하게 작동하도록 구성되어야 합니다. 이 통합은 Docker 컨테이너가 DGX Spark의 강력한 GPU에 접근할 수 있도록 하는 데 중요합니다. 주요 명령에는 NVIDIA 컨테이너 런타임을 Docker에 등록하고, DGX Spark에서 최적의 성능을 위한 요구 사항인 cgroup 네임스페이스 모드를 'host'로 구성하는 것이 포함됩니다. Docker를 다시 시작하고 NVIDIA 런타임의 기능을 확인하는 것은 필수적인 검증 단계입니다. 또한 사용자를 Docker 그룹에 추가하면 `sudo`를 사용할 필요 없이 후속 명령 실행이 간소화됩니다. 이러한 기본 단계는 안전한 로컬 AI 에이전트를 위한 안정적이고 성능이 뛰어난 환경을 보장합니다.

## Ollama 및 NVIDIA Nemotron 3 Super 로컬 배포

NemoClaw를 사용하는 로컬 AI 에이전트 경험의 초석은 Ollama와 같은 로컬 모델 서빙 엔진과 NVIDIA Nemotron 3 Super 120B와 같은 강력한 대규모 언어 모델의 배포입니다. Ollama는 하드웨어에서 LLM을 직접 실행하기 위한 가볍고 효율적인 플랫폼으로, 로컬 추론 및 데이터 개인 정보 보호에 대한 NemoClaw의 강조와 완벽하게 일치합니다.

이 프로세스는 Ollama의 공식 설치 프로그램을 사용하여 Ollama를 설치하는 것으로 시작됩니다. 설치 후, Ollama를 로컬 호스트만 사용하는 것이 아니라 모든 인터페이스(`0.0.0.0`)에서 수신하도록 구성하는 것이 중요합니다. 이는 샌드박스 내 자체 네트워크 네임스페이스에서 작동하는 NemoClaw 에이전트가 이러한 네트워크 경계를 넘어 Ollama와 통신해야 하기 때문입니다. Ollama의 접근성을 확인하고 systemd를 통해 시작되었는지 확인하는 것은 연결 문제를 피하기 위한 필수 단계입니다. 다음으로 중요한 단계는 NVIDIA Nemotron 3 Super 120B 모델을 다운로드하는 것입니다. 이는 약 87GB에 달하는 상당한 양의 다운로드입니다. 다운로드 후, `ollama run nemotron-3-super:120b` 명령으로 간단한 세션을 실행하여 모델 가중치를 GPU 메모리에 미리 로드하면 콜드 스타트 지연을 제거하여 AI 에이전트가 첫 상호 작용부터 즉시 응답하도록 보장합니다. 이 로컬 배포 전략은 AI의 '두뇌'가 전적으로 온프레미스에서 작동하여 최대의 제어 및 보안을 유지하도록 보장합니다.

## OpenShell 샌드박싱으로 AI 에이전트 보안 강화

코드를 실행하고 외부 시스템과 상호 작용할 수 있는 자율 AI 에이전트와 관련된 내재된 위험은 강력한 보안 조치를 필요로 합니다. NVIDIA OpenShell은 NemoClaw의 보안 아키텍처에서 핵심적인 역할을 하며, AI 에이전트를 위한 강화된 환경을 조성하는 중요한 샌드박싱 기능을 제공합니다. OpenShell은 보안 런타임 및 게이트웨이 역할을 하여 에이전트 주변에 엄격한 안전 경계를 적용합니다. 이 '보호된 환경' 접근 방식은 에이전트가 무단 작업을 시도하더라도 해당 기능이 제한되어 호스트 시스템이나 민감한 데이터를 손상시킬 수 없도록 보장합니다.

OpenShell은 자격 증명을 안전하게 관리할 뿐만 아니라 네트워크 및 API 호출을 지능적으로 프록시합니다. 이는 에이전트가 외부 리소스에 접근하거나 작업을 수행하려는 모든 시도가 사전 정의된 정책에 의해 중재되고 제어됨을 의미합니다. 이는 생성형 AI를 배포할 때 흔히 발생하는 우려 사항인 에이전트가 민감한 정보를 노출하거나 무제한 웹 접근 권한을 얻는 것을 방지합니다. OpenShell이 강력한 격리를 제공하지만, 고급 프롬프트 인젝션과 같은 정교한 공격에 대해 어떠한 샌드박스도 절대적인 면역력을 제공하지 않는다는 점을 기억하는 것이 중요합니다. 따라서 NVIDIA는 특히 새로운 도구나 복잡한 워크플로우를 실험할 때 이러한 에이전트를 격리된 시스템에 배포할 것을 권장합니다. 로컬 추론부터 런타임 샌드박싱에 이르는 이러한 다층 보안 전략은 신뢰할 수 있고 탄력적인 AI 애플리케이션을 구축하는 데 중요합니다. 에이전트가 [프롬프트 인젝션에 저항하도록 에이전트를 설계하는](/ko/designing-agents-to-resist-prompt-injection) 모범 사례에 대한 리소스를 통해 에이전트형 AI를 보호하는 방법에 대해 더 자세히 알아볼 수 있습니다.

## Telegram으로 자율 AI 에이전트 연결하기

'상시 작동' AI 에이전트는 익숙한 통신 채널을 통해 접근 가능하고 반응적이어야 합니다. NVIDIA NemoClaw를 사용하면 안전하게 샌드박싱된 자율 AI 비서를 Telegram과 같은 메시징 플랫폼과 통합하는 것이 간소화된 프로세스입니다. OpenShell의 안전한 범위 내에서 작동하는 OpenClaw는 AI 에이전트와 다양한 채팅 플랫폼 간의 상호 작용을 촉진하는 다중 채널 에이전트 프레임워크 역할을 합니다. 이는 통신이 안전하고 효율적으로 처리되도록 보장합니다.

Telegram 연결을 활성화하려면 사용자는 일반적으로 Telegram의 @BotFather를 통해 봇을 등록하고, OpenClaw가 보안 링크를 설정할 수 있는 고유 토큰을 얻습니다. 구성이 완료되면 로컬 AI 에이전트는 모든 Telegram 클라이언트에서 접근 가능해지며, 선호하는 메시징 앱에서 직접 다단계 워크플로우를 실행하고 정보를 검색하며 작업을 자동화할 수 있는 강력한 대화형 도구로 변모합니다. 이러한 통합은 NemoClaw가 강력하고 안전한 로컬 AI 처리와 편리한 실제 유용성 사이의 간극을 어떻게 연결하는지 보여주며, 이 모든 과정에서 데이터의 무결성과 개인 정보 보호를 유지합니다.

## 데이터 개인 정보 보호 및 제어에 로컬 AI 에이전트가 중요한 이유

DGX Spark에서 NVIDIA NemoClaw 및 OpenClaw를 사용하여 안전하고 상시 작동하는 로컬 AI 에이전트를 구축하는 과정은 AI 패러다임의 중요한 변화, 즉 데이터 개인 정보 보호 및 운영 제어의 필수 요소를 강조합니다. 데이터 유출과 독점 정보에 대한 우려가 최고조에 달하는 시대에, 클라우드 기반 AI 솔루션에만 의존하는 것은 용납할 수 없는 위험을 초래할 수 있습니다. NemoClaw는 완전한 로컬 추론을 가능하게 함으로써 AI 모델과 그들이 처리하는 민감한 데이터가 물리적 제어 영역을 절대 벗어나지 않도록 보장합니다. 이러한 온프레미스 접근 방식은 공격 노출면을 근본적으로 최소화하고 가장 가치 있는 자산에 대해 서드파티 클라우드 공급자를 신뢰할 필요성을 제거합니다.

NVIDIA의 DGX Spark와 같은 강력한 하드웨어와 NemoClaw, OpenShell, OpenClaw의 세심하게 설계된 소프트웨어 스택의 조합은 비할 데 없는 수준의 보안을 제공합니다. 개발자는 AI 환경에 대한 완전한 감독 및 맞춤화 기능을 얻게 되어 특정 보안 정책을 구현하고 접근 제어를 관리하며 진화하는 위협에 적응할 수 있습니다. 이러한 기능은 단순히 보안에 관한 것이 아니라 역량 강화에 관한 것입니다. 이는 기업과 개인이 매우 유능하고 진정으로 자율적이며, 무엇보다도 완전히 통제할 수 있는 최첨단 AI 에이전트를 배포할 수 있도록 합니다. 에이전트형 AI의 더 넓은 의미에 관심 있는 사람들을 위해, [에이전트형 AI 운영화](/ko/operationalizing-agentic-ai-part-1-a-stakeholders-guide)에 대한 리소스를 탐색하면 전략적 배포에 대한 추가 통찰력을 얻을 수 있습니다. AI의 미래는 지능적일 뿐만 아니라 본질적으로 사적이고 제어 가능하며, 로컬 AI 에이전트가 그 선두에 서 있습니다.

자주 묻는 질문

What is NVIDIA NemoClaw and how does it ensure AI agent security?
NVIDIA NemoClaw is an open-source reference stack designed to deploy secure, always-on local AI agents. It orchestrates NVIDIA OpenShell to run OpenClaw, a self-hosted gateway connecting messaging platforms to AI coding agents powered by models like NVIDIA Nemotron. Security is paramount, with NemoClaw enabling full local inference, meaning no data leaves the device. Furthermore, it incorporates robust sandboxing and isolation managed by OpenShell, which enforces safety boundaries, manages credentials, and proxies network/API calls, creating a 'walled garden' for agent execution and protecting sensitive information from external exposure.
What are the key components of the NemoClaw stack and their functions?
The NemoClaw stack comprises several critical components: NVIDIA NemoClaw acts as the orchestrator and installer for the entire system. NVIDIA OpenShell provides the security runtime and gateway, enforcing sandboxing and managing external interactions securely. OpenClaw is the multi-channel agent framework that operates within this secure sandbox, managing chat platforms (like Telegram), agent memory, and tool integration. The AI's 'brain' is provided by an agent-optimized Large Language Model, such as NVIDIA Nemotron 3 Super 120B, offering high instruction-following and multi-step reasoning capabilities. Finally, inference deployments like NVIDIA NIM or Ollama run the LLM locally on your GPU.
Why is local deployment on hardware like DGX Spark important for AI agents?
Local deployment on dedicated hardware like NVIDIA DGX Spark offers crucial advantages for AI agents, primarily centered around data privacy, security, and control. When agents operate locally, all inference happens on-premises, eliminating the need to send sensitive data to third-party cloud infrastructure. This minimizes privacy risks and ensures compliance with strict data governance policies. Furthermore, local deployment grants users full control over their runtime environment, allowing for custom security configurations, hardware-level isolation, and real-time policy management, which is essential for deploying autonomous agents that interact with local files or APIs securely.
What are the essential prerequisites for setting up NemoClaw on a DGX Spark system?
To deploy NemoClaw on an NVIDIA DGX Spark system, several prerequisites must be met. You need a DGX Spark (GB10) system running Ubuntu 24.04 LTS with the latest NVIDIA drivers. Docker version 28.x or higher is required, specifically configured with the NVIDIA container runtime to enable GPU acceleration. Ollama must be installed as the local model-serving engine. Lastly, for remote access, a Telegram bot token needs to be created through Telegram's @BotFather service. Proper configuration of these components ensures a smooth and secure setup process for your autonomous AI agent.
How does NemoClaw handle external connectivity and tool integration while maintaining security?
NemoClaw, through its OpenClaw component, manages external connectivity and tool integration while maintaining a high level of security. OpenClaw resides within a secure sandbox enforced by NVIDIA OpenShell. This sandboxing ensures that while the agent can connect to external messaging platforms like Telegram and utilize tools, its access to the underlying system resources and sensitive information is strictly controlled. OpenShell acts as a proxy, managing credentials and enforcing network and filesystem isolation. This means agents can interact with the outside world and execute code, but only within predefined, monitored, and real-time approved policy boundaries, preventing unrestricted access and potential data leakage.

최신 소식 받기

최신 AI 뉴스를 이메일로 받아보세요.

공유