Code Velocity

AI-sikkerhed

OpenAI AI-agenter modstår prompt-injektion og social engineering-angreb
AI-sikkerhed

AI-agenter: Modstand mod prompt-injektion gennem Social Engineering

Lær hvordan OpenAI designer AI-agenter til at modstå avancerede prompt-injektionsangreb ved at udnytte forsvarsstrategier baseret på social engineering, hvilket sikrer robust AI-sikkerhed og databeskyttelse.

·5 min læsning
OpenAI- og Promptfoo-logoer, der symboliserer deres opkøb for at forbedre AI-sikkerhed og -test
AI-sikkerhed

OpenAI overtager Promptfoo for at styrke AI-sikkerhed og -test

OpenAI styrker sine AI-sikkerhedsfunktioner ved at overtage Promptfoo og integrere dets avancerede test- og evalueringsværktøjer i OpenAI Frontier for at sikre virksomhedens AI-implementeringer.

·5 min læsning
Diagram, der illustrerer GitHub Security Labs' AI-drevne Taskflow Agent-arbejdsgang for sårbarhedsscanning
AI-sikkerhed

AI-drevet sikkerhed: GitHubs open source-rammeværk til sårbarhedsscanning

Udforsk GitHub Security Labs' open source, AI-drevne Taskflow Agent, et revolutionerende rammeværk for forbedret sårbarhedsscanning. Lær at implementere dette værktøj for effektivt at afdække højrisikosårbarheder i dine projekter.

·7 min læsning
OpenAI Fortrolighedsportalens dashboard, der viser muligheder for brugerdatakontrol og AI-fortrolighedsstyring.
AI Sikkerhed

OpenAI's Fortrolighedsportal: Forenklet brugerdatakontrol

OpenAIs nye Fortrolighedsportal giver brugere robust datakontrol, hvilket muliggør administration af personlige data, kontoindstillinger, præferencer for modeltræning og fjernelse af information fra ChatGPT-svar.

·5 min læsning
OpenAI og Krigsministeriets aftale med AI-sikkerhedsforanstaltninger
AI-sikkerhed

OpenAI-aftale med Krigsministeriet: Sikring af AI-sikkerhedsforanstaltninger

OpenAI beskriver sin skelsættende aftale med Krigsministeriet, der etablerer robuste AI-sikkerhedsforanstaltninger mod indenlandsk overvågning og autonome våben, og sætter en ny standard for forsvarsteknologi.

·7 min læsning
Anthropics officielle erklæring vedrørende Krigsministeriets potentielle udpegning som forsyningskæderisiko på grund af AI-etik.
AI-sikkerhed

Anthropic trodser Krigsministeren om AI, henviser til rettigheder og sikkerhed

Anthropic trodser Krigsministeriets udpegning som forsyningskæderisiko og står fast på etisk AI-brug, forbyder masseovervågning af borgere og upålidelige autonome våben.

·4 min læsning
Cybersikkerhedsskjold over AI-kredsløb, der repræsenterer OpenAIs bestræbelser på at forstyrre ondsindet AI-anvendelse
AI-sikkerhed

AI-sikkerhed: Forstyrrelse af ondsindet AI-anvendelse

OpenAI beskriver strategier til at forstyrre ondsindet AI-anvendelse og giver indsigt fra seneste trusselsrapporter. Lær, hvordan trusselsaktører kombinerer AI med traditionelle værktøjer til sofistikerede angreb.

·4 min læsning
Diagram, der viser forløbet af et destillationsangreb fra en frontlinje AI-model til ulovlige kopier via netværk af svigagtige konti
AI-Sikkerhed

Anthropic afslører destillationsangreb fra DeepSeek og MiniMax

Anthropic afslører, at DeepSeek, Moonshot og MiniMax udførte 16 millioner ulovlige udvekslinger for at destillere Claudes kapaciteter. Hvordan angrebene fungerede, og hvorfor de er vigtige.

·4 min læsning