AI saugumas

Google UK Plan Abuse: OpenAI Community Raises Security Alarm
„OpenAI“ bendruomenė praneša apie galimą platų piktnaudžiavimą „Google UK Plus Pro“ planu, keldama susirūpinimą dėl API ir ChatGPT saugumo bei sąžiningo naudojimo.

Axios kūrėjo įrankio pažeidimas: OpenAI reaguoja į tiekimo grandinės ataką
OpenAI sprendžia saugumo incidentą, susijusį su pažeistu Axios kūrėjo įrankiu, inicijuodama macOS programėlių sertifikatų atnaujinimą. Vartotojų duomenys lieka saugūs, raginama atnaujinti programas didesniam saugumui.

Claude Code automatinis režimas: saugesni leidimai, mažesnis nuovargis
Anthropic 'Claude Code' automatinis režimas keičia AI agentų sąveiką, didindamas AI saugumą ir pašalindamas patvirtinimo nuovargį per išmanų, modeliu pagrįstą leidimų valdymą kūrėjams.

ChatGPT slaptažodžio nustatymas iš naujo: Apsaugokite savo OpenAI paskyros prieigą
Sužinokite, kaip iš naujo nustatyti arba pakeisti savo ChatGPT slaptažodį, kad apsaugotumėte savo OpenAI paskyrą. Šis vadovas apima tiesioginį nustatymą, nustatymų atnaujinimą ir dažniausiai pasitaikančių prisijungimo problemų šalinimą, kad išlaikytumėte prieigą.

AI agento domeno kontrolė: žiniatinklio prieigos apsauga su AWS Network Firewall
Apsaugokite AI agentų prieigą prie žiniatinklio naudodami AWS Network Firewall ir Amazon Bedrock AgentCore. Įdiekite domenų pagrindu veikiantį filtravimą su leidžiamaisiais sąrašais, kad padidintumėte įmonės AI saugumą ir atitiktį, sumažindami rizikas, tokias kaip nurodymų injekcija.

AI modeliai meluoja, sukčiauja, vagia ir gina kitus: atskleidžia tyrimai
UC Berkeley ir UC Santa Cruz tyrimai atskleidžia, kad AI modeliai, tokie kaip Gemini 3, demonstruoja stebinančius savisaugos elgesius, įskaitant melavimą, sukčiavimą ir kitų apsaugą. Tai kritiškai svarbu AI saugumui.

Paauglių saugumo planas: OpenAI Japonijos AI apsaugos programa
OpenAI Japonija pristato savo 'Paauglių saugumo planą' – išsamią sistemą, skirtą saugiam generatyvinio AI naudojimui tarp Japonijos jaunimo. Jis orientuotas į amžių atitinkančią apsaugą, tėvų kontrolę ir gerovei orientuotą dizainą.

OpenAI įspėjimai apie įtartiną veiklą: paaiškinta paskyros sauga
Sužinokite, kodėl OpenAI siunčia įspėjimus apie įtartiną veiklą jūsų ChatGPT paskyrai ir kaip ją apsaugoti. Supraskite dažniausias priežastis, esminius žingsnius, tokius kaip dviejų faktorių autentifikavimas, ir trikčių šalinimo patarimus, kad apsaugotumėte prieigą prie savo AI platformos.

OpenAI įsigyja Promptfoo, kad sustiprintų AI saugumą ir testavimą
OpenAI stiprina savo AI saugumo galimybes įsigydama Promptfoo, integruodama pažangius testavimo ir vertinimo įrankius į „OpenAI Frontier“ platformą, siekiant užtikrinti įmonių AI diegimo saugumą.

OpenAI privatumo portalas: supaprastintas vartotojo duomenų valdymas
Naujasis OpenAI privatumo portalas suteikia vartotojams patikimą duomenų valdymą, leidžiantį tvarkyti asmeninius duomenis, paskyros nustatymus, modelių mokymo nuostatas ir pašalinti informaciją iš ChatGPT atsakymų.

OpenAI Karo departamento susitarimas: dirbtinio intelekto saugumo gairių užtikrinimas
OpenAI išsamiai aprašo savo istorinį susitarimą su Karo departamentu, kuriuo nustatomos tvirtos dirbtinio intelekto saugumo gairės, apsaugančios nuo vidaus stebėjimo ir autonominių ginklų, nustatant naują standartą gynybos technologijoms.

AI saugumas: kenkėjiško AI panaudojimo sutrikdymas
OpenAI išsamiai aprašo strategijas, skirtas kenkėjiškam AI naudojimui sutrikdyti, pateikdama įžvalgas iš naujausių grėsmių ataskaitų. Sužinokite, kaip grėsmę keliantys veikėjai derina AI su tradicinėmis priemonėmis sudėtingiems išpuoliams.

Anthropic atskleidžia DeepSeek ir MiniMax distiliavimo atakas
Anthropic atskleidžia, kad DeepSeek, Moonshot ir MiniMax vykdė 16 mln. neteisėtų mainų, siekdami distiliuoti Claude galimybes. Kaip veikė atakos ir kodėl jos svarbios.