Code Velocity

Seguridad ng AI

Mga ahente ng AI ng OpenAI na lumalaban sa prompt injection at mga pag-atake ng social engineering
Seguridad ng AI

Mga Ahente ng AI: Paglaban sa Prompt Injection Gamit ang Social Engineering

Alamin kung paano dinisenyo ng OpenAI ang mga ahente ng AI upang labanan ang mga advanced na pag-atake ng prompt injection sa pamamagitan ng paggamit ng mga estratehiya sa pagtatanggol ng social engineering, na tinitiyak ang matibay na seguridad ng AI at privacy ng data.

·5 min basahin
Mga logo ng OpenAI at Promptfoo na sumisimbolo sa kanilang pagkuha upang mapahusay ang seguridad at pagsubok ng AI
Seguridad ng AI

Nakukuha ng OpenAI ang Promptfoo upang Palakasin ang Seguridad at Pagsubok ng AI

Pinapalakas ng OpenAI ang mga kakayahan nito sa seguridad ng AI sa pamamagitan ng pagkuha ng Promptfoo, na isinasama ang mga advanced na tool nito sa pagsubok at ebalwasyon sa OpenAI Frontier upang masiguro ang mga deployment ng AI sa enterprise.

·5 min basahin
Diagram na naglalarawan sa daloy ng trabaho ng Taskflow Agent ng GitHub Security Lab para sa pag-scan ng kahinaan na pinapagana ng AI
Seguridad ng AI

Seguridad na Pinapagana ng AI: Open-Source na Balangkas ng GitHub para sa Pag-scan ng Kahinaan

Tuklasin ang open-source, pinapagana ng AI na Taskflow Agent ng GitHub Security Lab, isang rebolusaryong balangkas para sa pinahusay na pag-scan ng kahinaan. Alamin kung paano gamitin ang tool na ito upang epektibong matukoy ang mga kritikal na kahinaan sa seguridad sa iyong mga proyekto.

·7 min basahin
Dashboard ng OpenAI Privacy Portal na nagpapakita ng mga opsyon para sa kontrol ng data ng user at pamamahala ng pribadong impormasyon sa AI.
Seguridad ng AI

OpenAI Privacy Portal: Pinasimpleng Kontrol sa Data ng Gumagamit

Ang bagong Privacy Portal ng OpenAI ay nagbibigay kapangyarihan sa mga user na may matibay na kontrol sa data, na nagpapahintulot sa pamamahala ng personal na data, mga setting ng account, mga kagustuhan sa pagsasanay ng modelo, at pagtanggal ng impormasyon mula sa mga tugon ng ChatGPT.

·5 min basahin
Kasunduan ng OpenAI at Kagawaran ng Digmaan na may mga pananggalang sa kaligtasan ng AI
Seguridad ng AI

Kasunduan ng OpenAI at Kagawaran ng Digmaan: Pagtiyak sa Mga Pananggalang sa Kaligtasan ng AI

Idinetalye ng OpenAI ang makasaysayang kasunduan nito sa Kagawaran ng Digmaan, na nagtatatag ng matibay na pananggalang sa kaligtasan ng AI laban sa pagmamanman sa loob ng bansa at mga awtonomong sandata, na nagtatakda ng bagong pamantayan para sa teknolohiya ng depensa.

·7 min basahin
Opisyal na pahayag ng Anthropic tungkol sa posibleng pagtatalaga ng panganib sa supply chain ng Departamento ng Digmaan dahil sa etika ng AI.
Seguridad ng AI

Anthropic Sumasalungat sa Kalihim ng Digmaan sa AI, Binabanggit ang Karapatan at Kaligtasan

Sumasalungat ang Anthropic sa pagtatalaga ng panganib sa supply chain ng Departamento ng Digmaan, naninindigan sa etikal na paggamit ng AI, pagbabawal sa malawakang panloob na pagsubaybay at hindi mapagkakatiwalaang awtonomong sandata.

·4 min basahin
Cybersecurity shield sa ibabaw ng mga circuit ng AI, na kumakatawan sa mga pagsisikap ng OpenAI sa paghadlang sa malisyosong paggamit ng AI
Seguridad ng AI

Seguridad ng AI: Paghadlang sa Malisyosong Paggamit ng AI

Detalyado ng OpenAI ang mga estratehiya para sa paghadlang sa malisyosong paggamit ng AI, na nagbibigay ng mga pananaw mula sa kamakailang mga ulat ng banta. Alamin kung paano pinagsasama ng mga nagbabantang aktor ang AI sa tradisyonal na mga kasangkapan para sa sopistikadong mga pag-atake.

·4 min basahin
Diagram na nagpapakita ng daloy ng pag-atake ng distillation mula sa frontier AI model patungo sa iligal na kopya sa pamamagitan ng mga network ng mapanlinlang na account
Seguridad ng AI

Inilantad ng Anthropic ang mga Pag-atake ng Distillation nina DeepSeek at MiniMax

Isiniwalat ng Anthropic na pinatakbo nina DeepSeek, Moonshot, at MiniMax ang 16M na iligal na palitan upang ma-distill ang mga kakayahan ng Claude. Paano gumana ang mga pag-atakeng ito at bakit mahalaga ang mga ito.

·4 min basahin