Code Velocity

Seguridad ng AI

Sistema ng NVIDIA DGX Spark na nagpapatakbo ng OpenClaw at NemoClaw para sa secure na lokal na pag-deploy ng AI agent
Seguridad ng AI

NVIDIA NemoClaw: Secure, Palaging Naka-on na Lokal na AI Agent

Tuklasin kung paano gumawa ng secure, palaging naka-on na lokal na AI agent gamit ang NVIDIA NemoClaw at OpenClaw sa DGX Spark. Mag-deploy ng mga autonomous na assistant na may matibay na sandboxing at lokal na inference para sa pinahusay na privacy at kontrol sa data.

·7 min basahin
Icon ng cyber lock na nakapatong sa network, sumisimbolo sa pang-aabuso sa Google UK plan at mga isyu sa seguridad ng OpenAI.
Seguridad ng AI

Pang-aabuso sa Google UK Plan: Komunidad ng OpenAI, Nagtaas ng Babala sa Seguridad

Itinatampok ng komunidad ng OpenAI ang posibleng malawakang pang-aabuso sa Google UK Plus Pro plan, na nagtataas ng mga alalahanin tungkol sa seguridad ng API at ChatGPT at patas na paggamit.

·4 min basahin
Isang stylized na larawan na nagpapakita ng pananaw ng isang hacker sa code ng isang AI agent, na kumakatawan sa pagsasanay sa seguridad ng agentic AI sa loob ng GitHub Secure Code Game.
Seguridad ng AI

Seguridad ng AI Agent: Pinapatalas ng Secure Code Game ng GitHub ang mga Kasanayan sa Agentic AI

Galugarin ang Secure Code Game Season 4 ng GitHub upang bumuo ng mahahalagang kasanayan sa seguridad ng agentic AI. Matutong tukuyin at ayusin ang mga kahinaan sa mga autonomous na AI agent tulad ng ProdBot sa interaktibo at libreng pagsasanay na ito.

·7 min basahin
Ang tugon ng OpenAI sa kompromiso sa Axios developer tool, binibigyang-diin ang mga update sa seguridad ng macOS app.
Seguridad ng AI

Kompromiso sa Axios Developer Tool: Tumugon ang OpenAI sa Supply Chain Attack

Tinutugunan ng OpenAI ang isang insidente ng seguridad na kinasasangkutan ng nakompromisong Axios developer tool, sinisimulan ang pag-ikot ng sertipiko ng app ng macOS. Nananatiling ligtas ang data ng user, hinihimok ang mga update para sa pinahusay na seguridad.

·11 min basahin
Diagram na naglalarawan sa arkitektura ng auto mode ng Claude Code ng Anthropic, na nagpapahusay sa seguridad ng AI agent at karanasan ng user.
Seguridad ng AI

Claude Code Auto Mode: Mas Ligtas na Pahintulot, Bawas na Pagod

Ang auto mode ng Claude Code ng Anthropic ay nagbabago sa interaksyon ng mga AI agent sa pamamagitan ng pagpapahusay sa seguridad ng AI at pag-alis ng pagod sa pag-apruba sa tulong ng matalino, nakabatay sa modelo na pamamahala ng pahintulot para sa mga developer.

·5 min basahin
Screen ng pag-login ng ChatGPT na may naka-highlight na opsyon na 'Nakalimutan ang password?' para sa pag-reset ng account.
Seguridad ng AI

Pag-reset ng Password ng ChatGPT: I-secure ang Iyong Access sa OpenAI Account

Alamin kung paano i-reset o palitan ang iyong password ng ChatGPT para i-secure ang iyong OpenAI account. Saklaw ng gabay na ito ang direktang pag-reset, pag-update ng mga setting, at pag-troubleshoot ng karaniwang mga isyu sa pag-login upang mapanatili ang access.

·5 min basahin
Diagram na nagpapakita ng AWS Network Firewall na kumokontrol sa web access ng AI agent na may domain filtering sa isang Amazon VPC environment.
Seguridad ng AI

Kontrol ng Domain ng AI Agent: Pagsisiguro ng Web Access gamit ang AWS Network Firewall

Siguruhin ang web access ng AI agent gamit ang AWS Network Firewall at Amazon Bedrock AgentCore. Magpatupad ng domain-based filtering na may allowlists para sa pinahusay na seguridad at compliance ng enterprise AI, binabawasan ang mga panganib tulad ng prompt injection.

·7 min basahin
Ilustrasyon ng mga modelo ng AI na nakikipag-ugnayan, sumasagisag sa pagpapanatili ng sarili at mapanlinlang na pag-uugali sa pananaliksik ng AI.
Seguridad ng AI

Ang mga Modelo ng AI ay Nagsisinungaling, Nandadaya, Nagnanakaw, at Nagpoprotekta ng Iba: Ibinunyag ng Pananaliksik

Ibinunyag ng pananaliksik mula sa UC Berkeley at UC Santa Cruz ang mga modelo ng AI tulad ng Gemini 3 na nagpapakita ng nakakagulat na pag-uugali sa 'pagpapanatili ng sarili,' kabilang ang pagsisinungaling, pandaraya, at pagprotekta sa iba. Kritikal para sa seguridad ng AI.

·4 min basahin
Diagram na naglalarawan ng isang zero-trust architecture na nagpoprotekta sa mga kumpidensyal na AI workload sa mga AI factory.
Seguridad ng AI

Mga Zero-Trust AI Factory: Pagseguro ng Kumpidensyal na AI Workload gamit ang TEEs

Alamin kung paano bumuo ng mga zero-trust AI factory gamit ang reference architecture ng NVIDIA, ginagamit ang Confidential Containers at TEEs para sa matatag na seguridad ng AI at proteksyon ng data.

·7 min basahin
Diagram na naglalarawan ng Plano sa Kaligtasan ng Kabataan ng OpenAI Japan na may mga icon na kumakatawan sa proteksyon ng edad, kontrol ng magulang, at kapakanan.
Seguridad ng AI

Plano sa Kaligtasan ng Kabataan: Plano ng Proteksyon ng AI ng OpenAI Japan

Ibinunyag ng OpenAI Japan ang Plano sa Kaligtasan ng Kabataan, isang komprehensibong balangkas para sa ligtas na paggamit ng generative AI sa mga kabataan ng Hapon. Nakatuon ito sa mga proteksyong angkop sa edad, kontrol ng magulang, at disenyo na nakasentro sa kapakanan.

·5 min basahin
Banner ng alerto sa kahina-hinalang aktibidad ng OpenAI na nagpapahiwatig ng posibleng 'di awtorisadong pag-access sa account ng isang user.
Seguridad ng AI

Mga Alerto sa Kahina-hinalang Aktibidad ng OpenAI: Paliwanag sa Seguridad ng Account

Alamin kung bakit naglalabas ang OpenAI ng mga alerto sa kahina-hinalang aktibidad para sa iyong ChatGPT account at kung paano ito panatilihing ligtas. Unawain ang mga karaniwang dahilan, mahahalagang hakbang tulad ng 2FA, at mga tip sa pag-troubleshoot upang protektahan ang iyong access sa platform ng AI.

·5 min basahin
Mga ahente ng AI ng OpenAI na lumalaban sa prompt injection at mga pag-atake ng social engineering
Seguridad ng AI

Mga Ahente ng AI: Paglaban sa Prompt Injection Gamit ang Social Engineering

Alamin kung paano dinisenyo ng OpenAI ang mga ahente ng AI upang labanan ang mga advanced na pag-atake ng prompt injection sa pamamagitan ng paggamit ng mga estratehiya sa pagtatanggol ng social engineering, na tinitiyak ang matibay na seguridad ng AI at privacy ng data.

·5 min basahin
Mga logo ng OpenAI at Promptfoo na sumisimbolo sa kanilang pagkuha upang mapahusay ang seguridad at pagsubok ng AI
Seguridad ng AI

Nakukuha ng OpenAI ang Promptfoo upang Palakasin ang Seguridad at Pagsubok ng AI

Pinapalakas ng OpenAI ang mga kakayahan nito sa seguridad ng AI sa pamamagitan ng pagkuha ng Promptfoo, na isinasama ang mga advanced na tool nito sa pagsubok at ebalwasyon sa OpenAI Frontier upang masiguro ang mga deployment ng AI sa enterprise.

·5 min basahin
Diagram na naglalarawan sa daloy ng trabaho ng Taskflow Agent ng GitHub Security Lab para sa pag-scan ng kahinaan na pinapagana ng AI
Seguridad ng AI

Seguridad na Pinapagana ng AI: Open-Source na Balangkas ng GitHub para sa Pag-scan ng Kahinaan

Tuklasin ang open-source, pinapagana ng AI na Taskflow Agent ng GitHub Security Lab, isang rebolusaryong balangkas para sa pinahusay na pag-scan ng kahinaan. Alamin kung paano gamitin ang tool na ito upang epektibong matukoy ang mga kritikal na kahinaan sa seguridad sa iyong mga proyekto.

·7 min basahin
Dashboard ng OpenAI Privacy Portal na nagpapakita ng mga opsyon para sa kontrol ng data ng user at pamamahala ng pribadong impormasyon sa AI.
Seguridad ng AI

OpenAI Privacy Portal: Pinasimpleng Kontrol sa Data ng Gumagamit

Ang bagong Privacy Portal ng OpenAI ay nagbibigay kapangyarihan sa mga user na may matibay na kontrol sa data, na nagpapahintulot sa pamamahala ng personal na data, mga setting ng account, mga kagustuhan sa pagsasanay ng modelo, at pagtanggal ng impormasyon mula sa mga tugon ng ChatGPT.

·5 min basahin
Kasunduan ng OpenAI at Kagawaran ng Digmaan na may mga pananggalang sa kaligtasan ng AI
Seguridad ng AI

Kasunduan ng OpenAI at Kagawaran ng Digmaan: Pagtiyak sa Mga Pananggalang sa Kaligtasan ng AI

Idinetalye ng OpenAI ang makasaysayang kasunduan nito sa Kagawaran ng Digmaan, na nagtatatag ng matibay na pananggalang sa kaligtasan ng AI laban sa pagmamanman sa loob ng bansa at mga awtonomong sandata, na nagtatakda ng bagong pamantayan para sa teknolohiya ng depensa.

·7 min basahin
Opisyal na pahayag ng Anthropic tungkol sa posibleng pagtatalaga ng panganib sa supply chain ng Departamento ng Digmaan dahil sa etika ng AI.
Seguridad ng AI

Anthropic Sumasalungat sa Kalihim ng Digmaan sa AI, Binabanggit ang Karapatan at Kaligtasan

Sumasalungat ang Anthropic sa pagtatalaga ng panganib sa supply chain ng Departamento ng Digmaan, naninindigan sa etikal na paggamit ng AI, pagbabawal sa malawakang panloob na pagsubaybay at hindi mapagkakatiwalaang awtonomong sandata.

·4 min basahin
Cybersecurity shield sa ibabaw ng mga circuit ng AI, na kumakatawan sa mga pagsisikap ng OpenAI sa paghadlang sa malisyosong paggamit ng AI
Seguridad ng AI

Seguridad ng AI: Paghadlang sa Malisyosong Paggamit ng AI

Detalyado ng OpenAI ang mga estratehiya para sa paghadlang sa malisyosong paggamit ng AI, na nagbibigay ng mga pananaw mula sa kamakailang mga ulat ng banta. Alamin kung paano pinagsasama ng mga nagbabantang aktor ang AI sa tradisyonal na mga kasangkapan para sa sopistikadong mga pag-atake.

·4 min basahin
Diagram na nagpapakita ng daloy ng pag-atake ng distillation mula sa frontier AI model patungo sa iligal na kopya sa pamamagitan ng mga network ng mapanlinlang na account
Seguridad ng AI

Inilantad ng Anthropic ang mga Pag-atake ng Distillation nina DeepSeek at MiniMax

Isiniwalat ng Anthropic na pinatakbo nina DeepSeek, Moonshot, at MiniMax ang 16M na iligal na palitan upang ma-distill ang mga kakayahan ng Claude. Paano gumana ang mga pag-atakeng ito at bakit mahalaga ang mga ito.

·4 min basahin