Code Velocity

Varnost AI

Stilizirana slika, ki prikazuje pogled hekerja na kodo AI agenta, kar predstavlja usposabljanje za varnost agentske AI v igri GitHub Secure Code Game.
Varnost AI

Varnost AI agentov: GitHubova igra Secure Code Game izostruje agentske spretnosti

Raziščite 4. sezono igre GitHub Secure Code Game, da si pridobite bistvene varnostne spretnosti agentske AI. Naučite se prepoznati in odpraviti ranljivosti v avtonomnih AI agentih, kot je ProdBot, v tem interaktivnem, brezplačnem usposabljanju.

·7 min branja
Odziv OpenAI na kompromitacijo orodja za razvijalce Axios, ki poudarja varnostne posodobitve aplikacij macOS.
Varnost AI

Kompromitacija orodja za razvijalce Axios: OpenAI se odziva na napad na dobavno verigo

OpenAI obravnava varnostni incident, povezan s kompromitiranim orodjem za razvijalce Axios, in začenja rotacijo certifikatov aplikacij macOS. Uporabniški podatki ostajajo varni, podjetje pa poziva k posodobitvam za izboljšano varnost.

·11 min branja
Diagram, ki ponazarja arhitekturo avtomatskega načina Claude Code podjetja Anthropic, ki izboljšuje varnost AI agentov in uporabniško izkušnjo.
Varnost AI

Claude Code avtomatski način: Varnejša dovoljenja, zmanjšana utrujenost

Avtomatski način Claude Code podjetja Anthropic revolucionira interakcije z AI agenti z izboljšanjem varnosti AI in odpravo 'utrujenosti od potrjevanja' preko inteligentnega upravljanja dovoljenj na podlagi modelov za razvijalce.

·5 min branja
Diagram, ki prikazuje AWS Network Firewall, ki nadzoruje spletni dostop AI agentov s filtriranjem domen v okolju Amazon VPC.
Varnost AI

Nadzor domene za AI agente: Zavarovanje spletnega dostopa z AWS Network Firewall

Zavarujte spletni dostop AI agentov z AWS Network Firewall in Amazon Bedrock AgentCore. Implementirajte filtriranje na podlagi domen s seznami dovoljenih za izboljšano varnost in skladnost AI v podjetjih, s čimer zmanjšate tveganja, kot je injiciranje pozivov.

·7 min branja
Agenti AI podjetja OpenAI se upirajo vbrizgavanju pozivov in napadom socialnega inženiringa
Varnost AI

Agenti umetne inteligence: Upranje vbrizgavanju pozivov z socialnim inženiringom

Preberite, kako OpenAI razvija agente AI, da se upirajo naprednim napadom z vbrizgavanjem pozivov, z uporabo obrambnih strategij socialnega inženiringa, s čimer zagotavlja robustno varnost AI in zasebnost podatkov.

·5 min branja
Logotipa OpenAI in Promptfoo, ki simbolizirata njun prevzem za izboljšanje varnosti in testiranja AI
Varnost AI

OpenAI prevzema Promptfoo za krepitev varnosti in testiranja AI

OpenAI krepi svoje zmožnosti varnosti AI s prevzemom Promptfoo, integrirajoč napredna orodja za testiranje in vrednotenje v OpenAI Frontier za zaščito uvedb AI v podjetjih.

·5 min branja
Nadzorna plošča portala za zasebnost OpenAI prikazuje možnosti za nadzor uporabniških podatkov in upravljanje zasebnosti AI.
Varnost AI

Portal za zasebnost OpenAI: Poenostavljen nadzor nad uporabniškimi podatki

Novi portal za zasebnost OpenAI uporabnikom omogoča robusten nadzor nad podatki, kar jim dovoljuje upravljanje osebnih podatkov, nastavitev računa, preferenc za učenje modela in odstranjevanje informacij iz odzivov ChatGPT.

·5 min branja
Ščit kibernetske varnosti nad vezjem AI, ki predstavlja prizadevanja OpenAI za preprečevanje zlonamernih uporab AI
Varnost AI

Varnost AI: Preprečevanje zlonamernih uporab AI

OpenAI podrobno opisuje strategije za preprečevanje zlonamernih uporab AI, pri čemer ponuja vpoglede iz nedavnih poročil o grožnjah. Spoznajte, kako akterji groženj kombinirajo AI s tradicionalnimi orodji za sofisticirane napade.

·4 min branja