Code Velocity

AI-säkerhet

OpenAI AI-agenter som motstår promptinjektion och attacker med social ingenjörskonst
AI-säkerhet

AI-agenter: Att motstå promptinjektion med social ingenjörskonst

Lär dig hur OpenAI designar AI-agenter för att motstå avancerade promptinjektionsattacker genom att utnyttja försvarsstrategier baserade på social ingenjörskonst, vilket säkerställer robust AI-säkerhet och datasekretess.

·5 min läsning
OpenAI och Promptfoos logotyper som symboliserar deras förvärv för att förbättra AI-säkerhet och testning
AI-säkerhet

OpenAI förvärvar Promptfoo för att stärka AI-säkerhet och testning

OpenAI stärker sina AI-säkerhetsförmågor genom att förvärva Promptfoo och integrerar dess avancerade test- och utvärderingsverktyg i OpenAI Frontier för att säkra företags-AI-distributioner.

·5 min läsning
Diagram som illustrerar GitHub Security Labs arbetsflöde för AI-driven sårbarhetsskanning med Taskflow Agent
AI Säkerhet

AI-driven säkerhet: GitHubs ramverk för sårbarhetsskanning med öppen källkod

Utforska GitHub Security Labs öppen källkods, AI-drivna Taskflow Agent, ett revolutionerande ramverk för förbättrad sårbarhetsskanning. Lär dig att distribuera detta verktyg för att effektivt upptäcka säkerhetssårbarheter med hög påverkan i dina projekt.

·7 min läsning
OpenAI Sekretessportalens instrumentpanel som visar alternativ för användardatakontroll och AI-sekretesshantering.
AI-säkerhet

OpenAI Sekretessportal: Enkel användardatakontroll

OpenAIs nya Sekretessportal ger användare robust datakontroll, vilket möjliggör hantering av personuppgifter, kontoinställningar, preferenser för modellträning och borttagning av information från ChatGPT-svar.

·5 min läsning
OpenAI och krigsdepartementets avtal med säkerhetsspärrar för AI
AI-säkerhet

OpenAI och krigsdepartementets avtal: Säkerställande av säkerhetsspärrar för AI

OpenAI beskriver sitt banbrytande avtal med krigsdepartementet, som etablerar robusta säkerhetsspärrar för AI mot inhemsk övervakning och autonoma vapen, och sätter en ny standard för försvarsteknik.

·7 min läsning
Anthropics officiella uttalande angående Krigsministeriets potentiella beteckning som risk i försörjningskedjan på grund av AI-etik.
AI-säkerhet

Anthropic trotsar krigssekreteraren om AI, åberopar rättigheter och säkerhet

Anthropic trotsar Krigsministeriets beteckning som risk i försörjningskedjan och står fast vid etisk AI-användning, förbjuder massövervakning av medborgare och opålitliga autonoma vapen.

·4 min läsning
Cybersäkerhetssköld över AI-kretsar, som representerar OpenAIs ansträngningar att motverka skadlig AI-användning
AI-säkerhet

AI-säkerhet: Motverkande av skadlig AI-användning

OpenAI beskriver strategier för att motverka skadlig AI-användning och ger insikter från senaste hotrapporter. Lär dig hur hotaktörer kombinerar AI med traditionella verktyg för sofistikerade attacker.

·4 min läsning
Diagram som visar flödet av en destillationsattack från en gräns-AI-modell till olagliga kopior via nätverk av bedrägliga konton
AI-säkerhet

Anthropic avslöjar destillationsattacker av DeepSeek och MiniMax

Anthropic avslöjar att DeepSeek, Moonshot och MiniMax genomförde 16 miljoner otillåtna utbyten för att destillera Claudes förmågor. Så fungerade attackerna och därför är de viktiga.

·4 min läsning