Code Velocity
Siguria e AI

Marrëveshja e OpenAI me Departamentin e Luftës: Sigurimi i Masave Mbrojtëse të Sigurisë së AI

·7 min lexim·OpenAI·Burimi origjinal
Ndaj
Marrëveshja e OpenAI dhe Departamentit të Luftës me masa mbrojtëse të sigurisë së AI

OpenAI dhe Departamenti i Luftës Forcojnë Sigurinë e AI me Masa Mbrojtëse të Shprehta

San Francisko, CA – 3 Mars 2026 – OpenAI ka njoftuar një përditësim të rëndësishëm të marrëveshjes së saj me Departamentin e Luftës (DoW), duke përforcuar masat mbrojtëse të rrepta të sigurisë rreth vendosjes së sistemeve të avancuara të AI në mjedise të klasifikuara. Ky bashkëpunim historik nënvizon një angazhim të përbashkët për përdorimin e përgjegjshëm të AI, veçanërisht në lidhje me aplikacionet e ndjeshme të sigurisë kombëtare. Marrëveshja e përditësuar, e finalizuar më 2 mars 2026, ndalon shprehimisht mbikëqyrjen e brendshme të personave të SHBA-së dhe kufizon përdorimin e AI në sistemet e armëve autonome, duke vendosur një standard të ri për integrimin etik të inteligjencës artificiale në mbrojtje.

Thelbi i kësaj marrëveshjeje të zgjeruar qëndron në shprehjen e qartë të asaj që ishte kuptuar më parë, duke siguruar që të mos ketë paqartësi në lidhje me kufizimet etike të teknologjisë AI. OpenAI thekson se kjo kornizë është projektuar për t'i siguruar ushtrisë amerikane mjete të fundit, duke ruajtur në mënyrë rigoroze parimet e privatësisë dhe sigurisë.

Ripërcaktimi i Masave Mbrojtëse për Vendosjen e AI të Klasifikuar

Në një lëvizje proaktive për të adresuar shqetësimet e mundshme, OpenAI dhe Departamenti i Luftës kanë përfshirë gjuhë shtesë në marrëveshjen e tyre, duke sqaruar specifikisht kufijtë e vendosjes së AI. Kjo klauzolë e re thekson pa ekuivok se mjetet e OpenAI nuk do të përdoren për mbikëqyrjen e brendshme të personave të SHBA-së, duke përfshirë edhe përmes blerjes ose përdorimit të informacionit personal të marrë komercialisht. Për më tepër, Departamenti i Luftës ka konfirmuar se agjencitë e tij të inteligjencës, si NSA, janë të përjashtuara nga kjo marrëveshje dhe do të kërkonin kushte krejtësisht të reja për çdo ofrim shërbimi.

Gjuha e përditësuar në marrëveshje detajon:

  • "Në përputhje me ligjet në fuqi, duke përfshirë Amendamentin e Katërt të Kushtetutës së Shteteve të Bashkuara, Aktin e Sigurisë Kombëtare të vitit 1947, Aktin FISA të vitit 1978, sistemi i AI nuk do të përdoret qëllimisht për mbikëqyrjen e brendshme të personave dhe shtetasve të SHBA-së."
  • "Për të shmangur çdo dyshim, Departamenti e kupton këtë kufizim si ndalues të gjurmimit, mbikëqyrjes ose monitorimit të qëllimshëm të personave apo shtetasve të SHBA-së, duke përfshirë edhe përmes prokurimit ose përdorimit të informacionit personal ose të identifikueshëm të blerë komercialisht."

Kjo qasje largpamëse synon të krijojë një rrugë të qartë për laboratorët e tjerë të avancuar të AI për t'u angazhuar me Departamentin e Luftës, duke nxitur bashkëpunimin dhe duke ruajtur standarde etike të palëkundura.

Shtyllat Etike Themelore të OpenAI: Tre Vijat e Kuqe

OpenAI operon nën tre "vija të kuqe" themelore që rregullojnë bashkëpunimet e saj në fusha të ndjeshme si siguria kombëtare. Këto parime, të ndara gjerësisht nga institucionet e tjera kryesore kërkimore të AI, janë thelbësore për marrëveshjen me Departamentin e Luftës:

  1. Pa mbikëqyrje masive të brendshme: Teknologjia e OpenAI nuk do të përdoret për monitorim të gjerë të qytetarëve amerikanë.
  2. Pa sisteme armësh autonome: Teknologjia ndalohet të drejtojë armë autonome pa kontroll njerëzor.
  3. Pa vendime të automatizuara me rrezik të lartë: Mjetet e OpenAI nuk do të përdoren për vendime të automatizuara kritike (p.sh., sisteme të "kreditit social") që kërkojnë mbikëqyrje njerëzore.

OpenAI thekson se strategjia e saj shumëplanëshe ofron mbrojtje më të fortë kundër përdorimeve të papranueshme krahasuar me qasjet që mbështeten kryesisht vetëm në politikat e përdorimit. Ky theks te masat mbrojtëse të rrepta teknike dhe kontraktuale e dallon marrëveshjen e saj në peizazhin në zhvillim të AI në mbrojtje.

Mbrojtje Shumëplanëshe: Arkitekturë, Kontratë dhe Ekspertizë Njerëzore

Forca e marrëveshjes së OpenAI me Departamentin e Luftës qëndron në qasjen e saj gjithëpërfshirëse, shumëplanëshe për mbrojtjen. Kjo përfshin:

  1. Arkitektura e Vendosjes: Marrëveshja kërkon një vendosje vetëm në cloud, duke siguruar që OpenAI të ruajë diskrecion të plotë mbi stivën e saj të sigurisë dhe të parandalojë vendosjen e modeleve "pa masa mbrojtëse". Kjo arkitekturë kufizon në thelb rastet e përdorimit si armët autonome vdekjeprurëse, të cilat zakonisht kërkojnë vendosje në periferi (edge deployment). Mekanizma të pavarur verifikimi, duke përfshirë klasifikuesit, janë në vend për të siguruar që këto vija të kuqe të mos kalohen.
  2. Gjuhë Kontraktuale e Fuqishme: Kontrata detajon shprehimisht përdorimet e lejuara, duke kërkuar respektimin e "të gjitha qëllimeve ligjore, në përputhje me ligjin në fuqi, kërkesat operacionale dhe protokollet e vendosura mirë të sigurisë dhe mbikëqyrjes." Ajo referon specifikisht ligjet e SHBA-së si Amendamenti i Katërt, Akti i Sigurisë Kombëtare i vitit 1947, Akti FISA i vitit 1978 dhe Direktiva e DoD 3000.09. Veçanërisht, ajo ndalon drejtimin e pavarur të armëve autonome dhe monitorimin e pakufizuar të informacionit privat të personave të SHBA-së.
  3. Përfshirja e Ekspertëve të AI: Inxhinierët e autorizuar të OpenAI dhe studiuesit e sigurisë dhe përafrimit do të vendosen përpara dhe do të jenë "në qark" (in the loop). Kjo mbikëqyrje e drejtpërdrejtë njerëzore ofron një shtresë shtesë sigurie, duke ndihmuar në përmirësimin e sistemeve me kalimin e kohës dhe duke verifikuar në mënyrë aktive pajtueshmërinë me kushtet e rrepta të marrëveshjes.

Kjo qasje e integruar siguron që masat mbrojtëse teknologjike, ligjore dhe njerëzore të punojnë në bashkëpunim për të parandaluar keqpërdorimin.

Kategoria e Vijës së KuqeMasat Mbrojtëse të OpenAI
Mbikëqyrja Masive e BrendshmeNdalim kontraktor i shprehtë, përafrim me Amendamentin e Katërt, FISA, Aktin e Sigurisë Kombëtare; përjashtim i NSA/agjencive të inteligjencës nga fushëveprimi; kufizime të vendosjes vetëm në cloud për qasjen në të dhëna; verifikim nga personeli i OpenAI 'në qark'.
Sistemet e Armëve AutonomeVendosje vetëm në cloud (pa vendosje në periferi për autonominë vdekjeprurëse); ndalim kontraktor i shprehtë kundër drejtimit të pavarur të armëve autonome; respektim i Direktivës së DoD 3000.09 për verifikim/validim; personeli i OpenAI 'në qark' për mbikëqyrje.
Vendime të Automatizuara me Rrezik të LartëGjuhë kontraktuale e shprehtë që kërkon miratim njerëzor për vendimet me rrezik të lartë; OpenAI ruan kontroll të plotë mbi stivën e saj të sigurisë, duke parandaluar modelet 'pa masa mbrojtëse'; personeli i OpenAI 'në qark' për të siguruar që mbikëqyrja njerëzore të ruhet aty ku janë përfshirë vendime kritike.

Adresimi i Shqetësimeve dhe Krijimi i Bashkëpunimit të Ardhshëm të AI

OpenAI njeh rreziqet e natyrshme të AI-së së avancuar dhe e sheh bashkëpunimin e thellë midis qeverisë dhe laboratorëve të AI si thelbësor për të lundruar në të ardhmen. Angazhimi me Departamentin e Luftës i lejon ushtrisë amerikane të ketë qasje në mjete të avancuara, ndërsa siguron që këto teknologji të vendosen në mënyrë të përgjegjshme.

"Ne mendojmë se ushtria amerikane ka absolutisht nevojë për modele të forta AI për të mbështetur misionin e saj, veçanërisht përballë kërcënimeve në rritje nga kundërshtarët e mundshëm që po integrojnë gjithnjë e më shumë teknologjitë e AI në sistemet e tyre," deklaroi OpenAI. Ky angazhim balancohet me një refuzim të palëkundur për të kompromentuar masat mbrojtëse teknike për performancën, duke theksuar se një qasje e përgjegjshme është thelbësore.

Marrëveshja gjithashtu synon të ulë tensionet dhe të nxisë bashkëpunimin më të gjerë brenda komunitetit të AI. OpenAI ka kërkuar që të njëjtat kushte mbrojtëse të vihen në dispozicion të të gjitha kompanive të AI, duke shpresuar të lehtësojë partneritete të ngjashme të përgjegjshme në të gjithë industrinë. Kjo është pjesë e strategjisë më të gjerë të OpenAI, siç demonstrohet nga partneriteti i saj i vazhdueshëm me Microsoft dhe përpjekjet drejt shkallëzimit të AI për të gjithë.

Vendosja e një Standardi të Ri për Angazhimin e AI në Mbrojtje

OpenAI beson se marrëveshja e saj vendos një standard më të lartë për vendosjen e AI të klasifikuar krahasuar me marrëveshjet e mëparshme, përfshirë ato të diskutuara nga laboratorë të tjerë si Anthropic. Besimi buron nga mbrojtjet themelore të ngulitura: vendosja vetëm në cloud që ruan integritetin e stivës së sigurisë së OpenAI, garancitë e shprehta kontraktuale dhe përfshirja aktive e personelit të autorizuar të OpenAI.

Kjo kornizë gjithëpërfshirëse siguron që vijat e kuqe të specifikuara — parandalimi i mbikëqyrjes masive të brendshme dhe kontrolli i armëve autonome — të zbatohen me forcë. Gjuha kontraktuale që referon shprehimisht ligjet ekzistuese siguron që edhe nëse politikat ndryshojnë në të ardhmen, përdorimi i sistemeve të OpenAI duhet të jetë ende në përputhje me standardet origjinale, më të rrepta. Kjo qëndrim proaktiv nënvizon angazhimin e OpenAI për të zhvilluar dhe vendosur teknologji të fuqishme të AI në një mënyrë që i jep përparësi sigurisë, etikës dhe vlerave demokratike, edhe në kontekstet më kërkuese të sigurisë kombëtare.

Pyetjet e bëra shpesh

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Qëndroni të përditësuar

Merrni lajmet më të fundit të AI në email.

Ndaj