Code Velocity

AI saugumas

Kibernetinės spynos piktograma, uždengiančia tinklą, simbolizuojanti „Google UK“ plano piktnaudžiavimą ir „OpenAI“ saugumo problemas.
AI saugumas

Google UK Plan Abuse: OpenAI Community Raises Security Alarm

„OpenAI“ bendruomenė praneša apie galimą platų piktnaudžiavimą „Google UK Plus Pro“ planu, keldama susirūpinimą dėl API ir ChatGPT saugumo bei sąžiningo naudojimo.

·4 min skaitymo
OpenAI reakcija į Axios kūrėjo įrankio pažeidimą, pabrėžiant macOS programėlių saugumo atnaujinimus.
AI Saugumas

Axios kūrėjo įrankio pažeidimas: OpenAI reaguoja į tiekimo grandinės ataką

OpenAI sprendžia saugumo incidentą, susijusį su pažeistu Axios kūrėjo įrankiu, inicijuodama macOS programėlių sertifikatų atnaujinimą. Vartotojų duomenys lieka saugūs, raginama atnaujinti programas didesniam saugumui.

·11 min skaitymo
Diagrama, iliustruojanti Anthropic 'Claude Code' automatinio režimo architektūrą, gerinančią AI agento saugumą ir naudotojo patirtį.
AI saugumas

Claude Code automatinis režimas: saugesni leidimai, mažesnis nuovargis

Anthropic 'Claude Code' automatinis režimas keičia AI agentų sąveiką, didindamas AI saugumą ir pašalindamas patvirtinimo nuovargį per išmanų, modeliu pagrįstą leidimų valdymą kūrėjams.

·5 min skaitymo
ChatGPT prisijungimo ekranas su paryškinta parinktimi 'Pamiršote slaptažodį?', skirta paskyros nustatymui iš naujo.
AI saugumas

ChatGPT slaptažodžio nustatymas iš naujo: Apsaugokite savo OpenAI paskyros prieigą

Sužinokite, kaip iš naujo nustatyti arba pakeisti savo ChatGPT slaptažodį, kad apsaugotumėte savo OpenAI paskyrą. Šis vadovas apima tiesioginį nustatymą, nustatymų atnaujinimą ir dažniausiai pasitaikančių prisijungimo problemų šalinimą, kad išlaikytumėte prieigą.

·5 min skaitymo
Schema, rodanti, kaip AWS Network Firewall kontroliuoja AI agento prieigą prie žiniatinklio su domenų filtravimu Amazon VPC aplinkoje.
AI saugumas

AI agento domeno kontrolė: žiniatinklio prieigos apsauga su AWS Network Firewall

Apsaugokite AI agentų prieigą prie žiniatinklio naudodami AWS Network Firewall ir Amazon Bedrock AgentCore. Įdiekite domenų pagrindu veikiantį filtravimą su leidžiamaisiais sąrašais, kad padidintumėte įmonės AI saugumą ir atitiktį, sumažindami rizikas, tokias kaip nurodymų injekcija.

·7 min skaitymo
AI modelių sąveikos iliustracija, simbolizuojanti savisaugą ir apgaulingą elgesį AI tyrimuose.
AI Saugumas

AI modeliai meluoja, sukčiauja, vagia ir gina kitus: atskleidžia tyrimai

UC Berkeley ir UC Santa Cruz tyrimai atskleidžia, kad AI modeliai, tokie kaip Gemini 3, demonstruoja stebinančius savisaugos elgesius, įskaitant melavimą, sukčiavimą ir kitų apsaugą. Tai kritiškai svarbu AI saugumui.

·4 min skaitymo
Schema, iliustruojanti OpenAI Japonijos 'Paauglių saugumo planą' su ikonėlėmis, žyminčiomis amžiaus apsaugą, tėvų kontrolę ir gerovę.
AI saugumas

Paauglių saugumo planas: OpenAI Japonijos AI apsaugos programa

OpenAI Japonija pristato savo 'Paauglių saugumo planą' – išsamią sistemą, skirtą saugiam generatyvinio AI naudojimui tarp Japonijos jaunimo. Jis orientuotas į amžių atitinkančią apsaugą, tėvų kontrolę ir gerovei orientuotą dizainą.

·5 min skaitymo
OpenAI įspėjimo apie įtartiną veiklą baneris, rodantis galimą neteisėtą prieigą prie vartotojo paskyros.
AI saugumas

OpenAI įspėjimai apie įtartiną veiklą: paaiškinta paskyros sauga

Sužinokite, kodėl OpenAI siunčia įspėjimus apie įtartiną veiklą jūsų ChatGPT paskyrai ir kaip ją apsaugoti. Supraskite dažniausias priežastis, esminius žingsnius, tokius kaip dviejų faktorių autentifikavimas, ir trikčių šalinimo patarimus, kad apsaugotumėte prieigą prie savo AI platformos.

·5 min skaitymo
OpenAI ir Promptfoo logotipai, simbolizuojantys jų įsigijimą, siekiant pagerinti AI saugumą ir testavimą
AI saugumas

OpenAI įsigyja Promptfoo, kad sustiprintų AI saugumą ir testavimą

OpenAI stiprina savo AI saugumo galimybes įsigydama Promptfoo, integruodama pažangius testavimo ir vertinimo įrankius į „OpenAI Frontier“ platformą, siekiant užtikrinti įmonių AI diegimo saugumą.

·5 min skaitymo
OpenAI privatumo portalo prietaisų skydelis, rodantis vartotojo duomenų valdymo ir AI privatumo tvarkymo parinktis.
AI saugumas

OpenAI privatumo portalas: supaprastintas vartotojo duomenų valdymas

Naujasis OpenAI privatumo portalas suteikia vartotojams patikimą duomenų valdymą, leidžiantį tvarkyti asmeninius duomenis, paskyros nustatymus, modelių mokymo nuostatas ir pašalinti informaciją iš ChatGPT atsakymų.

·5 min skaitymo
OpenAI ir Karo departamento susitarimas dėl dirbtinio intelekto saugumo gairių
AI saugumas

OpenAI Karo departamento susitarimas: dirbtinio intelekto saugumo gairių užtikrinimas

OpenAI išsamiai aprašo savo istorinį susitarimą su Karo departamentu, kuriuo nustatomos tvirtos dirbtinio intelekto saugumo gairės, apsaugančios nuo vidaus stebėjimo ir autonominių ginklų, nustatant naują standartą gynybos technologijoms.

·7 min skaitymo
Kibernetinio saugumo skydas virš AI grandinių, simbolizuojantis OpenAI pastangas sutrikdyti kenkėjišką AI naudojimą
AI saugumas

AI saugumas: kenkėjiško AI panaudojimo sutrikdymas

OpenAI išsamiai aprašo strategijas, skirtas kenkėjiškam AI naudojimui sutrikdyti, pateikdama įžvalgas iš naujausių grėsmių ataskaitų. Sužinokite, kaip grėsmę keliantys veikėjai derina AI su tradicinėmis priemonėmis sudėtingiems išpuoliams.

·4 min skaitymo
Schema, iliustruojanti distiliavimo atakos eigą nuo pažangiojo AI modelio iki neteisėtų kopijų per sukčių paskyrų tinklus
AI saugumas

Anthropic atskleidžia DeepSeek ir MiniMax distiliavimo atakas

Anthropic atskleidžia, kad DeepSeek, Moonshot ir MiniMax vykdė 16 mln. neteisėtų mainų, siekdami distiliuoti Claude galimybes. Kaip veikė atakos ir kodėl jos svarbios.

·4 min skaitymo