KI-Sicherheit

KI-Agenten: Prompt Injection mit Social Engineering widerstehen
Erfahren Sie, wie OpenAI KI-Agenten entwickelt, um fortschrittlichen Prompt-Injection-Angriffen durch den Einsatz von Social-Engineering-Verteidigungsstrategien zu widerstehen und so eine robuste KI-Sicherheit und den Datenschutz zu gewährleisten.

OpenAI übernimmt Promptfoo zur Stärkung der KI-Sicherheit und -Tests
OpenAI stärkt seine KI-Sicherheitsfunktionen durch die Übernahme von Promptfoo und integriert dessen fortschrittliche Test- und Evaluierungstools in OpenAI Frontier, um Enterprise-KI-Implementierungen zu sichern.

KI-gestützte Sicherheit: GitHubs Open-Source-Framework für die Schwachstellenanalyse
Entdecken Sie den Open-Source, KI-gestützten Taskflow Agent von GitHub Security Lab, ein revolutionäres Framework für verbesserte Schwachstellenanalyse. Lernen Sie, wie Sie dieses Tool einsetzen, um effizient schwerwiegende Sicherheitslücken in Ihren Projekten aufzudecken.

OpenAI Datenschutzportal: Vereinfachte Kontrolle über Nutzerdaten
OpenAIs neues Datenschutzportal ermöglicht Nutzern eine robuste Datenkontrolle, indem es die Verwaltung persönlicher Daten, Kontoeinstellungen, Präferenzen für das Modelltraining und die Entfernung von Informationen aus ChatGPT-Antworten erlaubt.

OpenAI-Abkommen mit dem Kriegsministerium: KI-Sicherheitsleitplanken gewährleisten
OpenAI erläutert sein wegweisendes Abkommen mit dem Kriegsministerium, das robuste KI-Sicherheitsleitplanken gegen inländische Überwachung und autonome Waffen etabliert und einen neuen Standard für Verteidigungstechnologie setzt.

Anthropic widersetzt sich dem Kriegsminister bei KI, beruft sich auf Rechte und Sicherheit
Anthropic widersetzt sich der Einstufung des Kriegsministeriums als Lieferkettenrisiko und bleibt bei der ethischen Nutzung von KI, verbietet Massenüberwachung im Inland und unzuverlässige autonome Waffen.

KI-Sicherheit: Störung des missbräuchlichen Einsatzes von KI
OpenAI erläutert Strategien zur Störung des missbräuchlichen Einsatzes von KI und liefert Erkenntnisse aus aktuellen Bedrohungsberichten. Erfahren Sie, wie Bedrohungsakteure KI mit traditionellen Werkzeugen für raffinierte Angriffe kombinieren.

Anthropic deckt Destillationsangriffe von DeepSeek und MiniMax auf
Anthropic enthüllt, dass DeepSeek, Moonshot und MiniMax 16 Millionen illegale Austausche durchgeführt haben, um Claudes Fähigkeiten zu destillieren. Wie die Angriffe funktionierten und warum sie wichtig sind.