Code Velocity

AI-sikkerhet

OpenAIs AI-agenter som motstår promptinjeksjon og sosial manipuleringsangrep
AI-sikkerhet

AI-agenter: Motstand mot promptinjeksjon med sosial manipulering

Lær hvordan OpenAI designer AI-agenter for å motstå avanserte promptinjeksjonsangrep ved å utnytte forsvarsstrategier for sosial manipulering, og sikrer robust AI-sikkerhet og personvern.

·5 min lesing
OpenAI og Promptfoos logoer som symboliserer oppkjøpet for å forbedre AI-sikkerhet og -testing
AI-sikkerhet

OpenAI kjøper Promptfoo for å styrke AI-sikkerhet og -testing

OpenAI styrker sine AI-sikkerhetskapasiteter ved å kjøpe Promptfoo, og integrerer selskapets avanserte test- og evalueringsverktøy i OpenAI Frontier for å sikre AI-distribusjoner i bedrifter.

·5 min lesing
Diagram som illustrerer GitHub Security Labs AI-drevne Taskflow Agent-arbeidsflyt for sårbarhetsskanning
AI Sikkerhet

AI-drevet sikkerhet: GitHubs rammeverk for sårbarhetsskanning med åpen kildekode

Utforsk GitHub Security Labs open-source, AI-drevne Taskflow Agent, et revolusjonerende rammeverk for forbedret sårbarhetsskanning. Lær hvordan du implementerer dette verktøyet for å effektivt avdekke sikkerhetssårbarheter med høy innvirkning i prosjektene dine.

·7 min lesing
OpenAI personvernportal-dashbord som viser alternativer for brukerdatakontroll og AI-personvernadministrasjon.
AI-sikkerhet

OpenAI personvernportal: Brukerdatakontroll forenklet

OpenAIs nye personvernportal gir brukere robust datakontroll, slik at de kan administrere personlige data, kontoinnstillinger, preferanser for modelltrening og fjerning av informasjon fra ChatGPT-svar.

·5 min lesing
OpenAI og Krigsdepartementets avtale med AI-sikkerhetsbarrierer
AI-sikkerhet

OpenAIs avtale med Krigsdepartementet: Sikrer AI-sikkerhetsbarrierer

OpenAI detaljerer sin landemerkeavtale med Krigsdepartementet, som etablerer robuste AI-sikkerhetsbarrierer mot innenlands overvåking og autonome våpen, og setter en ny standard for forsvarsteknologi.

·7 min lesing
Anthropics offisielle uttalelse angående Krigsdepartementets potensielle klassifisering som forsyningskjederisiko over AI-etikk.
AI-sikkerhet

Anthropic trosser Krigsdepartementet om AI, viser til rettigheter og sikkerhet

Anthropic trosser Krigsdepartementets klassifisering som forsyningskjederisiko, står fast på etisk AI-bruk og forbyr masseovervåking i hjemlandet og upålitelige autonome våpen.

·4 min lesing
Cybersikkerhetsskjold over AI-kretser, som representerer OpenAIs innsats for å forstyrre ondsinnede AI-bruk
AI-sikkerhet

AI-sikkerhet: Forstyrrelse av ondsinnede AI-bruk

OpenAI presenterer strategier for å forstyrre ondsinnede AI-bruk, med innsikt fra nylige trusselrapporter. Lær hvordan trusselaktører kombinerer AI med tradisjonelle verktøy for sofistikerte angrep.

·4 min lesing
Diagram som viser flyten av et destillasjonsangrep fra en frontlinje AI-modell til ulovlige kopier gjennom nettverk av svindelkonti
AI-sikkerhet

Anthropic avslører destillasjonsangrep fra DeepSeek og MiniMax

Anthropic avslører at DeepSeek, Moonshot og MiniMax utførte 16 millioner ulovlige utvekslinger for å destillere Claudes kapasiteter. Hvordan angrepene fungerte og hvorfor de er viktige.

·4 min lesing