Code Velocity

AI-beveiliging

OpenAI AI-agenten die promptinjectie- en social engineering-aanvallen weerstaan
AI-beveiliging

AI-agenten: Promptinjectie weerstaan met social engineering

Ontdek hoe OpenAI AI-agenten ontwerpt om geavanceerde promptinjectie-aanvallen te weerstaan door social engineering-verdedigingsstrategieën toe te passen, wat robuuste AI-beveiliging en gegevensprivacy waarborgt.

·5 min leestijd
OpenAI en Promptfoo logo's symboliseren hun overname ter verbetering van AI-beveiliging en -testen
AI-beveiliging

OpenAI Neemt Promptfoo Over om AI-beveiliging en -testen te Versterken

OpenAI versterkt zijn AI-beveiligingsmogelijkheden door Promptfoo over te nemen en integreert de geavanceerde test- en evaluatietools in OpenAI Frontier om zakelijke AI-implementaties te beveiligen.

·5 min leestijd
Diagram dat de workflow van GitHub Security Lab's AI-gestuurde Taskflow Agent voor kwetsbaarheidsscanning illustreert
AI Beveiliging

AI-gestuurde Beveiliging: GitHub's Open-Source Framework voor Kwetsbaarheidsscanning

Ontdek GitHub Security Lab's open-source, AI-gestuurde Taskflow Agent, een revolutionair framework voor verbeterde kwetsbaarheidsscanning. Leer hoe je deze tool inzet om efficiënt impactvolle beveiligingslekken in je projecten te ontdekken.

·7 min leestijd
OpenAI Privacy Portal dashboard met opties voor gebruikersgegevensbeheer en AI-privacymanagement.
AI-beveiliging

OpenAI Privacy Portal: Gebruikersgegevensbeheer Vereenvoudigd

OpenAI's nieuwe Privacy Portal geeft gebruikers robuuste datacontrole, waardoor beheer van persoonlijke gegevens, accountinstellingen, modeltrainingvoorkeuren en het verwijderen van informatie uit ChatGPT-antwoorden mogelijk is.

·5 min leestijd
Overeenkomst tussen OpenAI en het Ministerie van Oorlog met AI-veiligheidsrichtlijnen
AI-beveiliging

OpenAI Akkoord met het Ministerie van Oorlog: Waarborgen van AI-veiligheidsrichtlijnen

OpenAI beschrijft haar baanbrekende overeenkomst met het Ministerie van Oorlog, waarin robuuste AI-veiligheidsrichtlijnen worden vastgesteld tegen binnenlandse bewaking en autonome wapens, en zo een nieuwe standaard wordt gezet voor defensietechnologie.

·7 min leestijd
Anthropic's officiële verklaring betreffende de mogelijke 'supply chain risico'-aanduiding van het Ministerie van Oorlog over AI-ethiek.
AI-beveiliging

Anthropic tart Oorlogsministerie over AI, beroept zich op rechten en veiligheid

Anthropic tart de 'supply chain risico'-aanduiding van het Ministerie van Oorlog, houdt vast aan ethisch AI-gebruik en verbiedt massa-surveillance en onbetrouwbare autonome wapens.

·4 min leestijd
Cyberbeveiligingsschild over AI-circuits, dat de inspanningen van OpenAI om malafide AI-gebruik te verstoren, vertegenwoordigt
AI-beveiliging

AI-beveiliging: Malafide AI-gebruik verstoren

OpenAI beschrijft strategieën om malafide AI-gebruik te verstoren en biedt inzichten uit recente dreigingsrapporten. Ontdek hoe dreigingsactoren AI combineren met traditionele tools voor geavanceerde aanvallen.

·4 min leestijd
Diagram dat de stroom van een destillatieaanval toont van een baanbrekend AI-model naar illegale kopieën via frauduleuze accountnetwerken
AI Beveiliging

Anthropic onthult destillatieaanvallen door DeepSeek en MiniMax

Anthropic onthult dat DeepSeek, Moonshot en MiniMax 16 miljoen illegale uitwisselingen uitvoerden om de mogelijkheden van Claude te destilleren. Hoe de aanvallen werkten en waarom ze belangrijk zijn.

·4 min leestijd