Code Velocity

KI-Sicherheit

OpenAI KI-Agenten widerstehen Prompt-Injection- und Social-Engineering-Angriffen
KI-Sicherheit

KI-Agenten: Prompt Injection mit Social Engineering widerstehen

Erfahren Sie, wie OpenAI KI-Agenten entwickelt, um fortschrittlichen Prompt-Injection-Angriffen durch den Einsatz von Social-Engineering-Verteidigungsstrategien zu widerstehen und so eine robuste KI-Sicherheit und den Datenschutz zu gewährleisten.

·5 Min. Lesezeit
Logos von OpenAI und Promptfoo symbolisieren ihre Übernahme zur Verbesserung der KI-Sicherheit und -Tests
KI-Sicherheit

OpenAI übernimmt Promptfoo zur Stärkung der KI-Sicherheit und -Tests

OpenAI stärkt seine KI-Sicherheitsfunktionen durch die Übernahme von Promptfoo und integriert dessen fortschrittliche Test- und Evaluierungstools in OpenAI Frontier, um Enterprise-KI-Implementierungen zu sichern.

·5 Min. Lesezeit
Diagramm, das den Workflow des KI-gestützten Taskflow Agents von GitHub Security Lab für die Schwachstellenanalyse veranschaulicht
KI-Sicherheit

KI-gestützte Sicherheit: GitHubs Open-Source-Framework für die Schwachstellenanalyse

Entdecken Sie den Open-Source, KI-gestützten Taskflow Agent von GitHub Security Lab, ein revolutionäres Framework für verbesserte Schwachstellenanalyse. Lernen Sie, wie Sie dieses Tool einsetzen, um effizient schwerwiegende Sicherheitslücken in Ihren Projekten aufzudecken.

·7 Min. Lesezeit
OpenAI Datenschutzportal-Dashboard mit Optionen zur Nutzerdatensteuerung und zum KI-Datenschutzmanagement.
KI-Sicherheit

OpenAI Datenschutzportal: Vereinfachte Kontrolle über Nutzerdaten

OpenAIs neues Datenschutzportal ermöglicht Nutzern eine robuste Datenkontrolle, indem es die Verwaltung persönlicher Daten, Kontoeinstellungen, Präferenzen für das Modelltraining und die Entfernung von Informationen aus ChatGPT-Antworten erlaubt.

·5 Min. Lesezeit
Abkommen zwischen OpenAI und dem Kriegsministerium mit KI-Sicherheitsleitplanken
KI-Sicherheit

OpenAI-Abkommen mit dem Kriegsministerium: KI-Sicherheitsleitplanken gewährleisten

OpenAI erläutert sein wegweisendes Abkommen mit dem Kriegsministerium, das robuste KI-Sicherheitsleitplanken gegen inländische Überwachung und autonome Waffen etabliert und einen neuen Standard für Verteidigungstechnologie setzt.

·7 Min. Lesezeit
Offizielle Stellungnahme von Anthropic zur potenziellen Einstufung durch das Kriegsministerium als Lieferkettenrisiko aufgrund von KI-Ethik.
KI-Sicherheit

Anthropic widersetzt sich dem Kriegsminister bei KI, beruft sich auf Rechte und Sicherheit

Anthropic widersetzt sich der Einstufung des Kriegsministeriums als Lieferkettenrisiko und bleibt bei der ethischen Nutzung von KI, verbietet Massenüberwachung im Inland und unzuverlässige autonome Waffen.

·4 Min. Lesezeit
Cybersecurity-Schild über KI-Schaltkreisen, der OpenAIs Bemühungen zur Störung des missbräuchlichen Einsatzes von KI darstellt
KI-Sicherheit

KI-Sicherheit: Störung des missbräuchlichen Einsatzes von KI

OpenAI erläutert Strategien zur Störung des missbräuchlichen Einsatzes von KI und liefert Erkenntnisse aus aktuellen Bedrohungsberichten. Erfahren Sie, wie Bedrohungsakteure KI mit traditionellen Werkzeugen für raffinierte Angriffe kombinieren.

·4 Min. Lesezeit
Diagramm, das den Fluss eines Destillationsangriffs von einem Frontier-KI-Modell zu illegalen Kopien über betrügerische Kontonetzwerke zeigt
KI-Sicherheit

Anthropic deckt Destillationsangriffe von DeepSeek und MiniMax auf

Anthropic enthüllt, dass DeepSeek, Moonshot und MiniMax 16 Millionen illegale Austausche durchgeführt haben, um Claudes Fähigkeiten zu destillieren. Wie die Angriffe funktionierten und warum sie wichtig sind.

·4 Min. Lesezeit