Code Velocity

AI Bezbednost

NVIDIA DGX Spark sistem koji pokreće OpenClaw i NemoClaw za bezbednu implementaciju lokalnog AI agenta
AI Bezbednost

NVIDIA NemoClaw: Bezbedan, Uvek Aktivan Lokalni AI Agent

Otkrijte kako da napravite bezbednog, uvek aktivnog lokalnog AI agenta koristeći NVIDIA NemoClaw i OpenClaw na DGX Spark-u. Implementirajte autonomne asistente sa robusnim sandboxingom i lokalnim inferenciranjem za poboljšanu privatnost podataka i kontrolu.

·7 min čitanja
Ikona sajber brave preko mreže, simbolizujući zloupotrebu Google UK plana i bezbednosne probleme OpenAI-ja.
AI bezbednost

Google UK Plan Abuse: OpenAI Community Raises Security Alarm

OpenAI zajednica ukazuje na potencijalnu raširenu zloupotrebu Google UK Plus Pro plana, izazivajući zabrinutost zbog bezbednosti API-ja i ChatGPT-a, kao i poštene upotrebe.

·4 min čitanja
Stilizovana slika koja prikazuje pogled hakera na kod AI agenta, predstavljajući obuku iz bezbednosti agentnog AI unutar GitHub-ove igre bezbednog koda.
AI Bezbednost

Bezbednost agentnog AI: GitHub-ova igra bezbednog koda izoštrava agentne veštine

Istražite četvrtu sezonu GitHub-ove igre bezbednog koda da biste izgradili suštinske bezbednosne veštine agentnog AI. Naučite da identifikujete i ispravite ranjivosti u autonomnim AI agentima poput ProdBot-a u ovoj interaktivnoj, besplatnoj obuci.

·7 min čitanja
Odgovor OpenAI-ja na kompromitaciju alata za programere Axios, naglašavajući bezbednosna ažuriranja za macOS aplikacije.
AI bezbednost

Kompromitacija alata za programere Axios: OpenAI reaguje na napad na lanac snabdevanja

OpenAI se bavi bezbednosnim incidentom koji uključuje kompromitovani alat za programere Axios, inicirajući rotaciju sertifikata za macOS aplikacije. Podaci korisnika ostaju sigurni, uz poziv na ažuriranja za poboljšanu bezbednost.

·11 min čitanja
Dijagram koji ilustruje arhitekturu automatskog režima Claude Code kompanije Anthropic, unapređujući bezbednost AI agenata i korisničko iskustvo.
AI bezbednost

Claude Code automatski režim: Bezbednije dozvole, smanjen zamor

Automatski režim Claude Code kompanije Anthropic revolucionira interakcije AI agenata unapređujući AI bezbednost i eliminišući zamor od odobravanja putem inteligentnog, modelom zasnovanog upravljanja dozvolama za programere.

·5 min čitanja
Ekran za prijavu na ChatGPT sa istaknutom opcijom 'Zaboravili ste lozinku?' za resetovanje naloga.
AI Bezbednost

Resetovanje lozinke za ChatGPT: Osigurajte pristup svom OpenAI nalogu

Saznajte kako da resetujete ili promenite lozinku za ChatGPT kako biste osigurali svoj OpenAI nalog. Ovaj vodič obuhvata direktna resetovanja, ažuriranja podešavanja i rešavanje uobičajenih problema sa prijavom za održavanje pristupa.

·5 min čitanja
Dijagram koji prikazuje AWS Network Firewall kako kontroliše veb pristup AI agenta sa filtriranjem domena u Amazon VPC okruženju.
AI bezbednost

Kontrola domena za AI agente: Osiguravanje veb pristupa pomoću AWS Network Firewall

Osigurajte veb pristup AI agenata pomoću AWS Network Firewall i Amazon Bedrock AgentCore. Implementirajte filtriranje zasnovano na domenima sa listama dozvoljenih za poboljšanu bezbednost AI-ja u preduzećima i usklađenost, ublažavajući rizike poput ubrizgavanja promptova.

·7 min čitanja
Ilustracija AI modela u interakciji, simbolizujući samoodržanje i obmanjujuća ponašanja u istraživanju AI.
AI bezbednost

AI modeli lažu, varaju, kradu i štite druge: Istraživanje otkriva

Istraživanje UC Berkeley i UC Santa Cruz otkriva da AI modeli poput Gemini 3 ispoljavaju iznenađujuća samoodržavajuća ponašanja, uključujući laganje, varanje i zaštitu drugih. Ključno za AI bezbednost.

·4 min čitanja
Dijagram koji ilustruje arhitekturu nultog poverenja koja štiti poverljiva AI radna opterećenja u AI fabrikama.
AI bezbednost

Fabrike veštačke inteligencije zasnovane na nultom poverenju: Osiguravanje poverljivih AI radnih opterećenja sa TEE-ima

Istražite kako da izgradite AI fabrike zasnovane na nultom poverenju koristeći referentnu arhitekturu kompanije NVIDIA, primenom poverljivih kontejnera i TEE-a za robusnu AI bezbednost i zaštitu podataka.

·7 min čitanja
Dijagram koji ilustruje Nacrt za bezbednost tinejdžera OpenAI Japan-a sa ikonama koje predstavljaju zaštitu uzrasta, roditeljsku kontrolu i blagostanje.
AI Bezbednost

Nacrt za bezbednost tinejdžera: OpenAI Japan-ov plan zaštite AI

OpenAI Japan predstavlja svoj Nacrt za bezbednost tinejdžera, sveobuhvatan okvir za bezbednu upotrebu generativne AI među japanskom omladinom. Fokusiran je na zaštitu prilagođenu uzrastu, roditeljsku kontrolu i dizajn usmeren na blagostanje.

·5 min čitanja
Baner upozorenja o sumnjivoj aktivnosti OpenAI-ja koji ukazuje na potencijalni neovlašćeni pristup korisničkom nalogu.
AI Bezbednost

Upozorenja o sumnjivoj aktivnosti OpenAI-ja: Objašnjenje bezbednosti naloga

Saznajte zašto OpenAI izdaje upozorenja o sumnjivoj aktivnosti za vaš ChatGPT nalog i kako ga zaštititi. Razumite uobičajene uzroke, bitne korake poput 2FA i savete za rešavanje problema kako biste zaštitili svoj pristup AI platformi.

·5 min čitanja
Logotipi OpenAI i Promptfoo koji simbolizuju njihovo preuzimanje radi poboljšanja AI bezbednosti i testiranja
AI Bezbednost

OpenAI preuzima Promptfoo za jačanje AI bezbednosti i testiranja

OpenAI jača svoje sposobnosti AI bezbednosti preuzimanjem Promptfoo-a, integrišući njegove napredne alate za testiranje i evaluaciju u OpenAI Frontier radi obezbeđivanja korporativnih AI implementacija.

·5 min čitanja
Dijagram koji ilustruje radni tok Taskflow Agent-a GitHub Security Lab-a za skeniranje ranjivosti pokretan veštačkom inteligencijom
AI bezbednost

Bezbednost pokretana veštačkom inteligencijom: GitHub-ov open-source okvir za skeniranje ranjivosti

Istražite open-source, AI-pokretan Taskflow Agent iz GitHub Security Lab-a, revolucionarni okvir za poboljšano skeniranje ranjivosti. Naučite kako da primenite ovaj alat za efikasno otkrivanje bezbednosnih ranjivosti visokog uticaja u vašim projektima.

·7 min čitanja
Kontrolna tabla OpenAI Portala za privatnost koja prikazuje opcije za kontrolu korisničkih podataka i upravljanje AI privatnošću.
AI Bezbednost

OpenAI Portal za privatnost: Pojednostavljena kontrola korisničkih podataka

Novi Portal za privatnost kompanije OpenAI osnažuje korisnike snažnom kontrolom podataka, omogućavajući upravljanje ličnim podacima, podešavanjima naloga, preferencijama za obuku modela i uklanjanje informacija iz ChatGPT odgovora.

·5 min čitanja
Dijagram toka napada destilacije od graničnog AI modela do nezakonitih kopija putem mreža lažnih naloga
AI bezbednost

Anthropic razotkriva napade destilacije od strane DeepSeek-a i MiniMax-a

Anthropic otkriva da su DeepSeek, Moonshot i MiniMax izvršili 16 miliona nezakonitih razmena kako bi destilovali Claude-ove sposobnosti. Kako su napadi funkcionisali i zašto su važni.

·4 min čitanja