Code Velocity
KI-Sicherheit

NVIDIA NemoClaw: Sicherer, ständig verfügbarer lokaler KI-Agent

·7 Min. Lesezeit·NVIDIA·Originalquelle
Teilen
NVIDIA DGX Spark System, das OpenClaw und NemoClaw für die sichere Bereitstellung lokaler KI-Agenten ausführt

title: "NVIDIA NemoClaw: Sicherer, ständig verfügbarer lokaler KI-Agent" slug: "build-a-secure-always-on-local-ai-agent-with-nvidia-nemoclaw-and-openclaw" date: "2026-04-20" lang: "de" source: "https://developer.nvidia.com/blog/build-a-secure-always-on-local-ai-agent-with-nvidia-nemoclaw-and-openclaw/" category: "KI-Sicherheit" keywords:

  • NVIDIA
  • NemoClaw
  • OpenClaw
  • KI-Agenten
  • Lokale KI
  • DGX Spark
  • KI-Sicherheit
  • Sandboxing
  • Nemotron
  • Ollama
  • Autonome KI
  • On-Premise KI meta_description: "Entdecken Sie, wie Sie mit NVIDIA NemoClaw und OpenClaw auf DGX Spark einen sicheren, ständig verfügbaren lokalen KI-Agenten erstellen. Setzen Sie autonome Assistenten mit robuster Sandbox-Umgebung und lokaler Inferenz für verbesserte Datensicherheit und -kontrolle ein." image: "/images/articles/build-a-secure-always-on-local-ai-agent-with-nvidia-nemoclaw-and-openclaw.png" image_alt: "NVIDIA DGX Spark System, das OpenClaw und NemoClaw für die sichere Bereitstellung lokaler KI-Agenten ausführt" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Was ist NVIDIA NemoClaw und wie gewährleistet es die Sicherheit von KI-Agenten?" answer: "NVIDIA NemoClaw ist ein Open-Source-Referenz-Stack, der für die Bereitstellung sicherer, ständig verfügbarer lokaler KI-Agenten entwickelt wurde. Er orchestriert NVIDIA OpenShell, um OpenClaw auszuführen, ein selbstgehostetes Gateway, das Messaging-Plattformen mit KI-Code-Agenten verbindet, die von Modellen wie NVIDIA Nemotron angetrieben werden. Sicherheit ist von größter Bedeutung, da NemoClaw eine vollständige lokale Inferenz ermöglicht, was bedeutet, dass keine Daten das Gerät verlassen. Darüber hinaus umfasst es robustes Sandboxing und Isolation, verwaltet von OpenShell, das Sicherheitsgrenzen durchsetzt, Anmeldeinformationen verwaltet und Netzwerk-/API-Aufrufe proxyed, wodurch ein 'abgeschirmter Bereich' für die Agentenausführung geschaffen und sensible Informationen vor externer Offenlegung geschützt wird."
  • question: "Was sind die Schlüsselkomponenten des NemoClaw-Stacks und ihre Funktionen?" answer: "Der NemoClaw-Stack umfasst mehrere entscheidende Komponenten: NVIDIA NemoClaw fungiert als Orchestrator und Installer für das gesamte System. NVIDIA OpenShell stellt die Sicherheitslaufzeit und das Gateway bereit, erzwingt Sandboxing und verwaltet externe Interaktionen sicher. OpenClaw ist das Mehrkanal-Agenten-Framework, das innerhalb dieser sicheren Sandbox arbeitet und Chat-Plattformen (wie Telegram), Agentenspeicher und Werkzeugintegration verwaltet. Das 'Gehirn' der KI wird von einem agentenoptimierten Large Language Model wie NVIDIA Nemotron 3 Super 120B bereitgestellt, das hohe Anweisungsfolgen und mehrstufige Denkfähigkeiten bietet. Schließlich führen Inferenzbereitstellungen wie NVIDIA NIM oder Ollama das LLM lokal auf Ihrer GPU aus."
  • question: "Warum ist die lokale Bereitstellung auf Hardware wie DGX Spark für KI-Agenten wichtig?" answer: "Die lokale Bereitstellung auf dedizierter Hardware wie NVIDIA DGX Spark bietet entscheidende Vorteile für KI-Agenten, die sich hauptsächlich auf Datenschutz, Sicherheit und Kontrolle konzentrieren. Wenn Agenten lokal arbeiten, erfolgt die gesamte Inferenz vor Ort, wodurch die Notwendigkeit entfällt, sensible Daten an Cloud-Infrastrukturen Dritter zu senden. Dies minimiert Datenschutzrisiken und gewährleistet die Einhaltung strenger Datenschutzrichtlinien. Darüber hinaus gewährt die lokale Bereitstellung den Benutzern die volle Kontrolle über ihre Laufzeitumgebung, was benutzerdefinierte Sicherheitskonfigurationen, Hardware-Level-Isolation und Echtzeit-Richtlinienverwaltung ermöglicht, was für die Bereitstellung autonomer Agenten, die sicher mit lokalen Dateien oder APIs interagieren, unerlässlich ist."
  • question: "Was sind die wesentlichen Voraussetzungen für die Einrichtung von NemoClaw auf einem DGX Spark System?" answer: "Um NemoClaw auf einem NVIDIA DGX Spark System bereitzustellen, müssen mehrere Voraussetzungen erfüllt sein. Sie benötigen ein DGX Spark (GB10) System, das Ubuntu 24.04 LTS mit den neuesten NVIDIA-Treibern ausführt. Docker Version 28.x oder höher ist erforderlich, spezifisch konfiguriert mit der NVIDIA Container Runtime, um GPU-Beschleunigung zu ermöglichen. Ollama muss als lokaler Modell-Serving-Engine installiert sein. Zuletzt muss für den Fernzugriff ein Telegram Bot Token über den @BotFather-Dienst von Telegram erstellt werden. Die ordnungsgemäße Konfiguration dieser Komponenten gewährleistet einen reibungslosen und sicheren Einrichtungsprozess für Ihren autonomen KI-Agenten."
  • question: "Wie handhabt NemoClaw die externe Konnektivität und Werkzeugintegration unter Wahrung der Sicherheit?" answer: "NemoClaw verwaltet über seine OpenClaw-Komponente die externe Konnektivität und Werkzeugintegration unter Beibehaltung eines hohen Sicherheitsniveaus. OpenClaw befindet sich innerhalb einer sicheren Sandbox, die von NVIDIA OpenShell erzwungen wird. Dieses Sandboxing stellt sicher, dass der Agent zwar eine Verbindung zu externen Messaging-Plattformen wie Telegram herstellen und Tools nutzen kann, sein Zugriff auf die zugrunde liegenden Systemressourcen und sensible Informationen jedoch streng kontrolliert wird. OpenShell fungiert als Proxy, verwaltet Anmeldeinformationen und erzwingt die Netzwerk- und Dateisystemisolation. Dies bedeutet, dass Agenten mit der Außenwelt interagieren und Code ausführen können, aber nur innerhalb vordefinierter, überwachter und in Echtzeit genehmigter Richtliniengrenzen, wodurch uneingeschränkter Zugriff und potenzielle Datenlecks verhindert werden."

Der Aufstieg sicherer, ständig verfügbarer lokaler KI-Agenten mit NVIDIA

Die Landschaft der künstlichen Intelligenz entwickelt sich rasant über einfache Frage-Antwort-Systeme hinaus. Die heutigen KI-Agenten verwandeln sich in ausgeklügelte, langlebige autonome Assistenten, die in der Lage sind, Dateien zu lesen, APIs aufzurufen und komplexe mehrstufige Workflows zu orchestrieren. Diese beispiellose Fähigkeit, obwohl leistungsstark, bringt erhebliche Sicherheits- und Datenschutzherausforderungen mit sich, insbesondere wenn man sich auf Cloud-Infrastrukturen Dritter verlässt. NVIDIA begegnet diesen Bedenken direkt mit seinem innovativen Open-Source-Stack: NVIDIA NemoClaw. Diese Lösung, die NVIDIA OpenShell und OpenClaw nutzt, ermöglicht die Bereitstellung eines sicheren, ständig verfügbaren lokalen KI-Agenten, der volle Kontrolle über die Laufzeitumgebung bietet und den Datenschutz auf Ihrer eigenen Hardware, wie dem NVIDIA DGX Spark, gewährleistet.

Dieser Artikel befasst sich damit, wie Entwickler einen solch robusten KI-Assistenten erstellen können, und führt durch den Bereitstellungsprozess von der Umgebungskonfiguration bis zur Integration eines sicheren, sandboxed Agenten mit externen Kommunikationsplattformen wie Telegram. Der Fokus liegt darauf, einen isolierten, vertrauenswürdigen KI-Betrieb aufrechtzuerhalten und sicherzustellen, dass sensible Daten Ihr lokales Gerät niemals verlassen.

Die sichere Agentenarchitektur von NVIDIA NemoClaw verstehen

Im Kern ist NVIDIA NemoClaw ein Open-Source-Referenz-Stack, der sorgfältig entwickelt wurde, um autonome KI-Agenten zu orchestrieren und zu verwalten, wobei der Schwerpunkt auf Sicherheit und lokaler Bereitstellung liegt. Es vereint mehrere leistungsstarke Komponenten, um einen 'abgeschirmten Bereich' für Ihre KI zu schaffen, der sicherstellt, dass die Operationen begrenzt und kontrolliert werden. Das Ökosystem basiert auf OpenShell, das die kritische Sicherheitslaufzeit bereitstellt, und OpenClaw, dem Mehrkanal-Agenten-Framework, das innerhalb dieser sicheren Umgebung arbeitet.

NemoClaw vereinfacht nicht nur die Bereitstellungspipeline von der Modellinferenz bis zur interaktiven Agentenfunktionalität, sondern bietet auch geführtes Onboarding, Lebenszyklusmanagement, Image Hardening und einen versionierten Bauplan. Dieser ganzheitliche Ansatz stellt sicher, dass Entwickler KI-Agenten, die Code ausführen und Tools verwenden können, bedenkenlos bereitstellen können, ohne die inhärenten Risiken, die mit der Offenlegung sensibler Informationen oder der Ermöglichung eines uneingeschränkten Webzugriffs verbunden sind. Die Integration offener Modelle wie NVIDIA Nemotron festigt das Engagement für eine transparente und kontrollierbare KI-Zukunft zusätzlich.


KomponenteWas es istWas es tutWann es zu verwenden ist
NVIDIA NemoClawReferenz-Stack mit Orchestrierungsebene und InstallerInstalliert OpenClaw und OpenShell mit Richtlinien und Inferenz.Schnellster Weg, einen ständig verfügbaren Assistenten in einer sichereren Sandbox zu erstellen.
NVIDIA OpenShellSicherheitslaufzeit und GatewayErzwingt Sicherheitsgrenzen (Sandboxing), verwaltet Anmeldeinformationen und leitet Netzwerk-/API-Aufrufe weiter.Wenn Sie einen 'abgeschirmten Bereich' benötigen, um Agenten auszuführen, ohne sensible Informationen preiszugeben oder uneingeschränkten Webzugriff zu ermöglichen.
OpenClawMehrkanal-Agenten-FrameworkBefindet sich innerhalb der Sandbox. Verwaltet Chat-Plattformen (Slack/Discord), Speicher und Tool-Integration.Wenn Sie einen langlebigen Agenten erstellen müssen, der mit Messaging-Apps und persistentem Speicher verbunden ist.
NVIDIA Nemotron 3 Super 120BAgentenoptimiertes LLM (120B Parameter)Bietet das 'Gehirn' mit hoher Anweisungsfolgen- und mehrstufigen Denkfähigkeiten.Für produktionsreife Assistenten, die Tools verwenden und komplexe Workflows befolgen müssen.
NVIDIA NIM / OllamaInferenzbereitstellungenFührt das Nemotron-Modell lokal ausWenn Sie eine GPU haben und das LLM lokal ausführen möchten

Tabelle 1. Architektonische Komponenten des NVIDIA NemoClaw Stacks

Dieses architektonische Design stellt sicher, dass selbst wenn KI-Agenten immer ausgeklügelter und autonomer werden, ihre Operationen innerhalb klar definierter, sicherer Grenzen bleiben, wodurch Risiken wie Datenlecks oder unbefugter Zugriff gemindert werden.

Einrichten Ihrer DGX Spark Umgebung für lokale KI

Die Bereitstellung von NVIDIA NemoClaw auf einer robusten Plattform wie dem NVIDIA DGX Spark (GB10) erfordert spezifische Umgebungskonfigurationen, um dessen volles Potenzial für lokale KI auszuschöpfen. Dies stellt sicher, dass das System für GPU-beschleunigte containerisierte Workloads bereit ist, die für den effizienten und sicheren Betrieb großer Sprachmodelle und Agenten-Frameworks unerlässlich sind.

Die ersten Schritte umfassen die Vorbereitung Ihres Betriebssystems, Docker und der NVIDIA Container Runtime. Sie benötigen ein DGX Spark System, das Ubuntu 24.04 LTS mit den neuesten NVIDIA-Treibern ausführt. Docker, insbesondere Version 28.x oder höher, muss installiert und so konfiguriert werden, dass es nahtlos mit der NVIDIA Container Runtime zusammenarbeitet. Diese Integration ist entscheidend, damit Docker-Container auf die leistungsstarken GPUs Ihres DGX Spark zugreifen können. Wichtige Befehle umfassen die Registrierung der NVIDIA Container Runtime bei Docker und die Konfiguration des cgroup-Namespace-Modus auf 'host', eine Anforderung für optimale Leistung auf DGX Spark. Das Neustarten von Docker und die Überprüfung der Funktionalität der NVIDIA Runtime sind wesentliche Überprüfungsschritte. Darüber hinaus vereinfacht das Hinzufügen Ihres Benutzers zur Docker-Gruppe die spätere Befehlsausführung, indem die Notwendigkeit von sudo entfällt. Diese grundlegenden Schritte gewährleisten eine stabile und leistungsfähige Umgebung für Ihren sicheren lokalen KI-Agenten.

Ollama und NVIDIA Nemotron 3 Super lokal bereitstellen

Ein Eckpfeiler der lokalen KI-Agenten-Erfahrung mit NemoClaw ist die Bereitstellung einer lokalen Modell-Serving-Engine wie Ollama, gekoppelt mit einem leistungsstarken großen Sprachmodell wie NVIDIA Nemotron 3 Super 120B. Ollama ist eine leichte, effiziente Plattform zum Ausführen von LLMs direkt auf Ihrer Hardware, was perfekt zu NemoClaws Schwerpunkt auf lokaler Inferenz und Datenschutz passt.

Der Prozess beginnt mit der Installation von Ollama über dessen offiziellen Installer. Nach der Installation ist es entscheidend, Ollama so zu konfigurieren, dass es auf allen Schnittstellen (0.0.0.0) statt nur auf localhost lauscht. Dies liegt daran, dass der NemoClaw-Agent, der innerhalb seines eigenen Netzwerk-Namespace in einer Sandbox arbeitet, mit Ollama über diese Netzwerkgrenzen hinweg kommunizieren muss. Die Überprüfung der Erreichbarkeit von Ollama und die Sicherstellung, dass es über systemd gestartet wird, sind entscheidende Schritte, um Konnektivitätsprobleme zu vermeiden. Der nächste wichtige Schritt beinhaltet das Herunterladen des NVIDIA Nemotron 3 Super 120B Modells – ein beträchtlicher Download von etwa 87 GB. Nach dem Herunterladen hilft das Vorabladen der Modellgewichte in den GPU-Speicher durch eine kurze Sitzung mit ollama run nemotron-3-super:120b, die Kaltstartlatenz zu eliminieren und sicherzustellen, dass Ihr KI-Agent von der ersten Interaktion an schnell reagiert. Diese lokale Bereitstellungsstrategie garantiert, dass das "Gehirn" der KI vollständig auf Ihren Systemen arbeitet und maximale Kontrolle und Sicherheit gewährleistet.

Verbesserung der KI-Agenten-Sicherheit mit OpenShell Sandboxing

Die mit autonomen KI-Agenten, die Code ausführen und mit externen Systemen interagieren können, verbundenen Risiken erfordern robuste Sicherheitsmaßnahmen. NVIDIA OpenShell ist der Dreh- und Angelpunkt in der Sicherheitsarchitektur von NemoClaw und bietet kritische Sandboxing-Funktionen, die eine verstärkte Umgebung für Ihren KI-Agenten schaffen. OpenShell fungiert als Sicherheitslaufzeit und Gateway, das strenge Sicherheitsgrenzen um den Agenten durchsetzt. Dieser 'abgeschirmte Bereich'-Ansatz stellt sicher, dass selbst wenn ein Agent eine unautorisierte Aktion versucht, seine Fähigkeiten begrenzt sind und das Hostsystem oder sensible Daten nicht kompromittieren können.

OpenShell verwaltet nicht nur Anmeldeinformationen sicher, sondern leitet auch intelligent Netzwerk- und API-Aufrufe weiter. Das bedeutet, dass jeder Versuch des Agenten, auf externe Ressourcen zuzugreifen oder Aktionen auszuführen, durch vordefinierte Richtlinien vermittelt und kontrolliert wird. Es verhindert, dass der Agent sensible Informationen preisgibt oder uneingeschränkten Webzugriff erhält, was häufige Bedenken bei der Bereitstellung generativer KI sind. Obwohl OpenShell eine starke Isolation bietet, ist es wichtig zu bedenken, dass keine Sandbox absolute Immunität gegen ausgeklügelte Angriffe wie fortgeschrittene Prompt-Injektion bietet. Daher rät NVIDIA, diese Agenten auf isolierten Systemen bereitzustellen, insbesondere beim Experimentieren mit neuen Tools oder komplexen Workflows. Diese mehrschichtige Sicherheitsstrategie, von der lokalen Inferenz bis zum Laufzeit-Sandboxing, ist entscheidend für den Aufbau vertrauenswürdiger und widerstandsfähiger KI-Anwendungen. Weitere Informationen zur Sicherung von Agenten-KI mit Best Practices für die Entwicklung von Agenten zur Abwehr von Prompt-Injection finden Sie hier.

Ihren autonomen KI-Agenten mit Telegram verbinden

Ein "ständig verfügbarer" KI-Agent muss über vertraute Kommunikationskanäle zugänglich und reaktionsschnell sein. Mit NVIDIA NemoClaw ist die Integration Ihres sicher sandboxed autonomen KI-Assistenten mit Messaging-Plattformen wie Telegram ein optimierter Prozess. OpenClaw, das innerhalb der sicheren Grenzen von OpenShell funktioniert, dient als Mehrkanal-Agenten-Framework, das diese Konnektivität ermöglicht. Es verwaltet die Interaktionen zwischen Ihrem KI-Agenten und verschiedenen Chat-Plattformen und stellt sicher, dass die Kommunikation sicher und effizient abgewickelt wird.

Um die Telegram-Konnektivität zu ermöglichen, registrieren Benutzer normalerweise einen Bot bei Telegrams @BotFather und erhalten ein einzigartiges Token, das OpenClaw die Herstellung einer sicheren Verbindung erlaubt. Nach der Konfiguration wird Ihr lokaler KI-Agent von jedem Telegram-Client aus zugänglich und verwandelt ihn in ein leistungsstarkes, interaktives Tool, das mehrstufige Workflows ausführen, Informationen abrufen und Aufgaben direkt aus Ihrer bevorzugten Messaging-App automatisieren kann. Diese Integration veranschaulicht, wie NemoClaw die Lücke zwischen leistungsstarker, sicherer lokaler KI-Verarbeitung und bequemer, praktischer Nützlichkeit schließt, während gleichzeitig die Integrität und der Datenschutz Ihrer Daten gewahrt bleiben.

Warum lokale KI-Agenten für Datenschutz und Kontrolle entscheidend sind

Der Weg zum Aufbau sicherer, ständig verfügbarer lokaler KI-Agenten mit NVIDIA NemoClaw und OpenClaw auf DGX Spark unterstreicht einen kritischen Wandel im KI-Paradigma: die Notwendigkeit von Datenschutz und operativer Kontrolle. In einer Ära, in der Datenlecks und Bedenken hinsichtlich proprietärer Informationen von größter Bedeutung sind, kann die alleinige Abhängigkeit von cloudbasierten KI-Lösungen inakzeptable Risiken mit sich bringen. Durch die Ermöglichung einer vollständigen lokalen Inferenz stellt NemoClaw sicher, dass Ihre KI-Modelle und die sensiblen Daten, die sie verarbeiten, niemals Ihre physische Kontrolle verlassen. Dieser On-Premise-Ansatz minimiert die Angriffsfläche grundlegend und eliminiert die Notwendigkeit, Drittanbietern von Cloud-Diensten Ihre wertvollsten Assets anzuvertrauen.

Die Kombination aus NVIDIAs robuster Hardware, wie DGX Spark, und dem sorgfältig entwickelten Software-Stack aus NemoClaw, OpenShell und OpenClaw bietet ein unvergleichliches Maß an Sicherheit. Entwickler erhalten umfassende Überwachungs- und Anpassungsmöglichkeiten ihrer KI-Umgebungen, wodurch sie spezifische Sicherheitsrichtlinien implementieren, Zugriffsrechte verwalten und sich an sich entwickelnde Bedrohungen anpassen können. Diese Fähigkeit ist nicht nur eine Frage der Sicherheit; es geht um Ermächtigung. Sie ermöglicht es Unternehmen und Einzelpersonen, hochmoderne KI-Agenten bereitzustellen, die äußerst leistungsfähig, wirklich autonom und, entscheidend, vollständig unter ihrer Kontrolle sind. Für diejenigen, die an den umfassenderen Auswirkungen von Agenten-KI interessiert sind, können Ressourcen zum Operationalisieren von Agenten-KI weitere Einblicke in die strategische Bereitstellung geben. Die Zukunft der KI ist nicht nur intelligent, sondern auch von Natur aus privat und kontrollierbar, wobei lokale KI-Agenten die Führung übernehmen.

Häufig gestellte Fragen

What is NVIDIA NemoClaw and how does it ensure AI agent security?
NVIDIA NemoClaw is an open-source reference stack designed to deploy secure, always-on local AI agents. It orchestrates NVIDIA OpenShell to run OpenClaw, a self-hosted gateway connecting messaging platforms to AI coding agents powered by models like NVIDIA Nemotron. Security is paramount, with NemoClaw enabling full local inference, meaning no data leaves the device. Furthermore, it incorporates robust sandboxing and isolation managed by OpenShell, which enforces safety boundaries, manages credentials, and proxies network/API calls, creating a 'walled garden' for agent execution and protecting sensitive information from external exposure.
What are the key components of the NemoClaw stack and their functions?
The NemoClaw stack comprises several critical components: NVIDIA NemoClaw acts as the orchestrator and installer for the entire system. NVIDIA OpenShell provides the security runtime and gateway, enforcing sandboxing and managing external interactions securely. OpenClaw is the multi-channel agent framework that operates within this secure sandbox, managing chat platforms (like Telegram), agent memory, and tool integration. The AI's 'brain' is provided by an agent-optimized Large Language Model, such as NVIDIA Nemotron 3 Super 120B, offering high instruction-following and multi-step reasoning capabilities. Finally, inference deployments like NVIDIA NIM or Ollama run the LLM locally on your GPU.
Why is local deployment on hardware like DGX Spark important for AI agents?
Local deployment on dedicated hardware like NVIDIA DGX Spark offers crucial advantages for AI agents, primarily centered around data privacy, security, and control. When agents operate locally, all inference happens on-premises, eliminating the need to send sensitive data to third-party cloud infrastructure. This minimizes privacy risks and ensures compliance with strict data governance policies. Furthermore, local deployment grants users full control over their runtime environment, allowing for custom security configurations, hardware-level isolation, and real-time policy management, which is essential for deploying autonomous agents that interact with local files or APIs securely.
What are the essential prerequisites for setting up NemoClaw on a DGX Spark system?
To deploy NemoClaw on an NVIDIA DGX Spark system, several prerequisites must be met. You need a DGX Spark (GB10) system running Ubuntu 24.04 LTS with the latest NVIDIA drivers. Docker version 28.x or higher is required, specifically configured with the NVIDIA container runtime to enable GPU acceleration. Ollama must be installed as the local model-serving engine. Lastly, for remote access, a Telegram bot token needs to be created through Telegram's @BotFather service. Proper configuration of these components ensures a smooth and secure setup process for your autonomous AI agent.
How does NemoClaw handle external connectivity and tool integration while maintaining security?
NemoClaw, through its OpenClaw component, manages external connectivity and tool integration while maintaining a high level of security. OpenClaw resides within a secure sandbox enforced by NVIDIA OpenShell. This sandboxing ensures that while the agent can connect to external messaging platforms like Telegram and utilize tools, its access to the underlying system resources and sensitive information is strictly controlled. OpenShell acts as a proxy, managing credentials and enforcing network and filesystem isolation. This means agents can interact with the outside world and execute code, but only within predefined, monitored, and real-time approved policy boundaries, preventing unrestricted access and potential data leakage.

Bleiben Sie informiert

Erhalten Sie die neuesten KI-Nachrichten per E-Mail.

Teilen