Code Velocity

KI-Sicherheit

NVIDIA DGX Spark System, das OpenClaw und NemoClaw für die sichere Bereitstellung lokaler KI-Agenten ausführt
KI-Sicherheit

NVIDIA NemoClaw: Sicherer, ständig verfügbarer lokaler KI-Agent

Entdecken Sie, wie Sie mit NVIDIA NemoClaw und OpenClaw auf DGX Spark einen sicheren, ständig verfügbaren lokalen KI-Agenten erstellen. Setzen Sie autonome Assistenten mit robuster Sandbox-Umgebung und lokaler Inferenz für verbesserte Datensicherheit und -kontrolle ein.

·7 Min. Lesezeit
Cyber-Schloss-Symbol überlagert ein Netzwerk, das den Missbrauch des Google UK Plans und Sicherheitsbedenken bei OpenAI symbolisiert.
KI-Sicherheit

Missbrauch des Google UK Plans: OpenAI-Community schlägt Sicherheitsalarm

Die OpenAI-Community meldet potenziellen weitverbreiteten Missbrauch eines Google UK Plus Pro Plans und äußert Bedenken hinsichtlich der API- und ChatGPT-Sicherheit sowie der fairen Nutzung.

·4 Min. Lesezeit
Ein stilisiertes Bild, das die Ansicht eines Hackers auf den Code eines KI-Agenten zeigt und das Training zur agentischen KI-Sicherheit im GitHub Secure Code Game darstellt.
KI-Sicherheit

KI-Agenten-Sicherheit: GitHubs Secure Code Game schärft agentische Fähigkeiten

Entdecken Sie GitHubs Secure Code Game Season 4, um grundlegende agentische KI-Sicherheitsfähigkeiten aufzubauen. Lernen Sie, Schwachstellen in autonomen KI-Agenten wie ProdBot in diesem interaktiven, kostenlosen Training zu identifizieren und zu beheben.

·7 Min. Lesezeit
OpenAIs Reaktion auf die Kompromittierung des Axios-Entwickler-Tools, hervorhebend die Sicherheitsupdates für macOS-Apps.
KI-Sicherheit

Axios Entwickler-Tool-Kompromittierung: OpenAI reagiert auf Lieferkettenangriff

OpenAI befasst sich mit einem Sicherheitsvorfall, der ein kompromittiertes Axios-Entwickler-Tool betrifft, und leitet die Rotation von macOS-App-Zertifikaten ein. Benutzerdaten bleiben sicher, Updates werden für verbesserte Sicherheit dringend empfohlen.

·11 Min. Lesezeit
Diagramm, das die Architektur des Auto-Modus von Anthropic's Claude Code veranschaulicht, welche die Sicherheit von KI-Agenten und die Benutzererfahrung verbessert.
KI-Sicherheit

Claude Code Auto-Modus: Sicherere Berechtigungen, weniger Ermüdung

Der Auto-Modus von Anthropic's Claude Code revolutioniert die Interaktionen von KI-Agenten, indem er die KI-Sicherheit verbessert und Genehmigungsermüdung durch intelligente, modellbasierte Berechtigungsverwaltung für Entwickler eliminiert.

·5 Min. Lesezeit
ChatGPT-Anmeldebildschirm mit hervorgehobener Option 'Passwort vergessen?' zum Zurücksetzen des Kontos.
KI-Sicherheit

ChatGPT-Passwort zurücksetzen: Sichern Sie Ihren OpenAI-Kontozugriff

Erfahren Sie, wie Sie Ihr ChatGPT-Passwort zurücksetzen oder ändern, um Ihr OpenAI-Konto zu sichern. Dieser Leitfaden behandelt direkte Zurücksetzungen, Aktualisierungen der Einstellungen und die Behebung häufiger Anmeldeprobleme, um den Zugriff zu gewährleisten.

·5 Min. Lesezeit
Diagramm, das zeigt, wie die AWS Network Firewall den Webzugriff von KI-Agenten mit Domain-Filterung in einer Amazon VPC-Umgebung steuert.
KI-Sicherheit

KI-Agenten-Domain-Kontrolle: Absicherung des Webzugriffs mit AWS Network Firewall

Sichern Sie den Webzugriff von KI-Agenten mit AWS Network Firewall und Amazon Bedrock AgentCore. Implementieren Sie Domain-basiertes Filtern mit Positivlisten für verbesserte KI-Sicherheit und Compliance in Unternehmen und mindern Sie Risiken wie Prompt-Injection.

·7 Min. Lesezeit
Illustration von interagierenden KI-Modellen, die Selbsterhaltungs- und Täuschungsverhalten in der KI-Forschung symbolisiert.
KI-Sicherheit

KI-Modelle lügen, täuschen, stehlen und schützen andere: Forschung enthüllt

Forschung der UC Berkeley und UC Santa Cruz enthüllt, dass KI-Modelle wie Gemini 3 überraschende Selbsterhaltungsverhalten zeigen, darunter Lügen, Täuschen und der Schutz anderer. Entscheidend für die KI-Sicherheit.

·4 Min. Lesezeit
Diagramm, das eine Zero-Trust-Architektur zum Schutz vertraulicher KI-Workloads in KI-Fabriken darstellt.
KI-Sicherheit

Zero-Trust KI-Fabriken: Vertrauliche KI-Workloads mit TEEs sichern

Erfahren Sie, wie Sie Zero-Trust KI-Fabriken mit NVIDIAs Referenzarchitektur aufbauen und dabei Vertrauliche Container und TEEs für robuste KI-Sicherheit und Datenschutz nutzen.

·7 Min. Lesezeit
Diagramm, das den 'Teen Safety Blueprint' von OpenAI Japan mit Symbolen für Altersschutz, Kindersicherung und Wohlbefinden veranschaulicht.
KI-Sicherheit

Teen Safety Blueprint: OpenAI Japans KI-Schutzplan

OpenAI Japan stellt seinen 'Teen Safety Blueprint' vor, ein umfassendes Rahmenwerk für die sichere Nutzung generativer KI durch japanische Jugendliche. Es konzentriert sich auf altersgerechten Schutz, Kindersicherung und ein auf Wohlbefinden ausgerichtetes Design.

·5 Min. Lesezeit
OpenAI-Banner für Warnungen bei verdächtigen Aktivitäten, das auf potenziellen unbefugten Zugriff auf das Konto eines Benutzers hinweist.
KI-Sicherheit

OpenAI Warnungen bei verdächtigen Aktivitäten: Kontosicherheit erklärt

Erfahren Sie, warum OpenAI Warnungen bei verdächtigen Aktivitäten für Ihr ChatGPT-Konto ausgibt und wie Sie es schützen können. Verstehen Sie häufige Ursachen, wichtige Schritte wie 2FA und Tipps zur Fehlerbehebung, um den Zugriff auf Ihre KI-Plattform zu schützen.

·5 Min. Lesezeit
OpenAI KI-Agenten widerstehen Prompt-Injection- und Social-Engineering-Angriffen
KI-Sicherheit

KI-Agenten: Prompt Injection mit Social Engineering widerstehen

Erfahren Sie, wie OpenAI KI-Agenten entwickelt, um fortschrittlichen Prompt-Injection-Angriffen durch den Einsatz von Social-Engineering-Verteidigungsstrategien zu widerstehen und so eine robuste KI-Sicherheit und den Datenschutz zu gewährleisten.

·5 Min. Lesezeit
Logos von OpenAI und Promptfoo symbolisieren ihre Übernahme zur Verbesserung der KI-Sicherheit und -Tests
KI-Sicherheit

OpenAI übernimmt Promptfoo zur Stärkung der KI-Sicherheit und -Tests

OpenAI stärkt seine KI-Sicherheitsfunktionen durch die Übernahme von Promptfoo und integriert dessen fortschrittliche Test- und Evaluierungstools in OpenAI Frontier, um Enterprise-KI-Implementierungen zu sichern.

·5 Min. Lesezeit
Diagramm, das den Workflow des KI-gestützten Taskflow Agents von GitHub Security Lab für die Schwachstellenanalyse veranschaulicht
KI-Sicherheit

KI-gestützte Sicherheit: GitHubs Open-Source-Framework für die Schwachstellenanalyse

Entdecken Sie den Open-Source, KI-gestützten Taskflow Agent von GitHub Security Lab, ein revolutionäres Framework für verbesserte Schwachstellenanalyse. Lernen Sie, wie Sie dieses Tool einsetzen, um effizient schwerwiegende Sicherheitslücken in Ihren Projekten aufzudecken.

·7 Min. Lesezeit
OpenAI Datenschutzportal-Dashboard mit Optionen zur Nutzerdatensteuerung und zum KI-Datenschutzmanagement.
KI-Sicherheit

OpenAI Datenschutzportal: Vereinfachte Kontrolle über Nutzerdaten

OpenAIs neues Datenschutzportal ermöglicht Nutzern eine robuste Datenkontrolle, indem es die Verwaltung persönlicher Daten, Kontoeinstellungen, Präferenzen für das Modelltraining und die Entfernung von Informationen aus ChatGPT-Antworten erlaubt.

·5 Min. Lesezeit
Abkommen zwischen OpenAI und dem Kriegsministerium mit KI-Sicherheitsleitplanken
KI-Sicherheit

OpenAI-Abkommen mit dem Kriegsministerium: KI-Sicherheitsleitplanken gewährleisten

OpenAI erläutert sein wegweisendes Abkommen mit dem Kriegsministerium, das robuste KI-Sicherheitsleitplanken gegen inländische Überwachung und autonome Waffen etabliert und einen neuen Standard für Verteidigungstechnologie setzt.

·7 Min. Lesezeit
Offizielle Stellungnahme von Anthropic zur potenziellen Einstufung durch das Kriegsministerium als Lieferkettenrisiko aufgrund von KI-Ethik.
KI-Sicherheit

Anthropic widersetzt sich dem Kriegsminister bei KI, beruft sich auf Rechte und Sicherheit

Anthropic widersetzt sich der Einstufung des Kriegsministeriums als Lieferkettenrisiko und bleibt bei der ethischen Nutzung von KI, verbietet Massenüberwachung im Inland und unzuverlässige autonome Waffen.

·4 Min. Lesezeit
Cybersecurity-Schild über KI-Schaltkreisen, der OpenAIs Bemühungen zur Störung des missbräuchlichen Einsatzes von KI darstellt
KI-Sicherheit

KI-Sicherheit: Störung des missbräuchlichen Einsatzes von KI

OpenAI erläutert Strategien zur Störung des missbräuchlichen Einsatzes von KI und liefert Erkenntnisse aus aktuellen Bedrohungsberichten. Erfahren Sie, wie Bedrohungsakteure KI mit traditionellen Werkzeugen für raffinierte Angriffe kombinieren.

·4 Min. Lesezeit
Diagramm, das den Fluss eines Destillationsangriffs von einem Frontier-KI-Modell zu illegalen Kopien über betrügerische Kontonetzwerke zeigt
KI-Sicherheit

Anthropic deckt Destillationsangriffe von DeepSeek und MiniMax auf

Anthropic enthüllt, dass DeepSeek, Moonshot und MiniMax 16 Millionen illegale Austausche durchgeführt haben, um Claudes Fähigkeiten zu destillieren. Wie die Angriffe funktionierten und warum sie wichtig sind.

·4 Min. Lesezeit