Code Velocity
AI Biztonság

OpenAI és a Hadügyminisztérium Megállapodása: Az AI Biztonsági Védőkorlátok Biztosítása

·7 perc olvasás·OpenAI·Eredeti forrás
Megosztás
OpenAI és a Hadügyminisztérium megállapodása AI biztonsági védőkorlátokkal

title: "OpenAI és a Hadügyminisztérium Megállapodása: Az AI Biztonsági Védőkorlátok Biztosítása" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "hu" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "AI Biztonság" keywords:

  • OpenAI
  • Hadügyminisztérium
  • AI etika
  • nemzetbiztonság
  • AI megfigyelés
  • autonóm fegyverek
  • AI védőkorlátok
  • minősített AI
  • védelmi szerződések
  • AI politika
  • amerikai hadsereg
  • felhőalapú telepítés meta_description: "Az OpenAI részletezi mérföldkőnek számító megállapodását a Hadügyminisztériummal, amely szigorú AI biztonsági védőkorlátokat hoz létre a belföldi megfigyelés és az autonóm fegyverek ellen, új szabványt állítva fel a védelmi technológiában." image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "OpenAI és a Hadügyminisztérium megállapodása AI biztonsági védőkorlátokkal" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Miért lépett kapcsolatba az OpenAI a Hadügyminisztériummal?" answer: "Az OpenAI azért lépett kapcsolatba a Hadügyminisztériummal, hogy a modern AI képességekkel ruházza fel az amerikai hadsereget, felismerve, hogy potenciális ellenfelei egyre inkább integrálják az AI-t. Ez a partnerség szigorú védőkorlátok kialakításától függött, amelyeket az OpenAI aprólékosan kidolgozott a felelősségteljes telepítés biztosítására minősített környezetekben. A cél az élvonalbeli eszközök biztosítása, miközben fenntartják a szigorú etikai elveket, demonstrálva, hogy a kifinomult AI felhasználható a nemzetbiztonságra anélkül, hogy veszélyeztetné az alapvető biztonsági és adatvédelmi szabványokat. Ezenkívül az OpenAI célja az volt, hogy csökkentse a feszültségeket a DoD és az AI laborok között, és szélesebb körű hozzáférést javasoljon ezekhez a gondosan strukturált feltételekhez más vállalatok számára is."
  • question: "Milyen konkrét védőkorlátok vannak érvényben a belföldi megfigyelés megakadályozására?" answer: "A megállapodás kifejezetten tiltja az OpenAI AI rendszereinek szándékos felhasználását amerikai személyek vagy állampolgárok belföldi megfigyelésére, összhangban a Negyedik Alkotmánykiegészítéssel, az 1947-es Nemzetbiztonsági Törvénnyel és az 1978-as FISA Törvénnyel. Ez magában foglalja a szándékos követés, megfigyelés vagy kereskedelmileg beszerzett személyes vagy azonosítható információk ilyen célú felhasználásának szigorú tilalmát. Kulcsfontosságú, hogy a Hadügyminisztérium megerősítette, hogy az olyan hírszerző ügynökségeknek, mint az NSA, külön megállapodásra lenne szükségük bármilyen szolgáltatáshoz, megerősítve ezeket a korlátozásokat és többszörös jogi és szerződéses védelmi réteget biztosítva a visszaélések ellen."
  • question: "Hogyan akadályozza meg ez a megállapodás az OpenAI modellek autonóm fegyverekhez való felhasználását?" answer: "A megelőzés sokrétű. Először is, a telepítési architektúra kizárólag felhőalapú, ami azt jelenti, hogy a modellek nem telepíthetők 'peremeszközökre', amelyek kritikusak az autonóm halálos fegyverekhez. Másodszor, a szerződés nyelve kifejezetten kimondja, hogy az AI rendszert nem fogják arra használni, hogy önállóan irányítson autonóm fegyvereket, ahol emberi irányításra van szükség. Előírja továbbá a szigorú ellenőrzést, validálást és tesztelést a DoD 3000.09 irányelvének megfelelően. Végül, a minősített OpenAI személyzet, beleértve a biztonsági és összehangolási kutatókat is, 'a körben' marad, további emberi felügyeletet és biztosítékot nyújtva arra, hogy ezeket a szigorú vörös vonalakat nem lépik át."
  • question: "Miben különbözik vagy erősebb az OpenAI megállapodása másoktól, például az Anthropic-étól?" answer: "Az OpenAI úgy véli, hogy megállapodása erősebb garanciákat és védőkorlátokat kínál többrétegű megközelítése miatt. Más megállapodásokkal ellentétben, amelyek kizárólag használati politikákra támaszkodhatnak, az OpenAI szerződése biztosítja, hogy saját tulajdonú biztonsági rétege teljesen működőképes és az ő ellenőrzésük alatt maradjon. A felhőalapú telepítési architektúra eleve korlátozza bizonyos magas kockázatú alkalmazásokat, mint például a teljesen autonóm fegyvereket, amelyek jellemzően peremeszközön történő telepítést igényelnek. Ezenkívül a minősített OpenAI személyzet folyamatos bevonása aktív emberi felügyeletet és ellenőrzést biztosít, robusztusabb keretet teremtve az elfogadhatatlan felhasználások ellen, ami szerintük felülmúlja a korábbi megállapodásokat."
  • question: "Milyen szerepet játszanak az OpenAI munkatársai a megfelelés biztosításában?" answer: "A minősített OpenAI személyzet, beleértve a kitelepített mérnököket és a biztonsági és összehangolási kutatókat, kritikus 'a körben lévő' szerepet játszanak. Segítenek a kormánynak a technológia felelősségteljes integrálásában, miközben aktívan ellenőrzik az elfogadott 'vörös vonalak' betartását. Ez a közvetlen bevonás lehetővé teszi az OpenAI számára, hogy függetlenül ellenőrizze, hogy a rendszert nem használják tiltott tevékenységekre, mint például belföldi megfigyelésre vagy autonóm fegyverek irányítására. Folyamatos jelenlétük biztosítja a biztonsági védőkorlátok fenntartását, és a modellek folyamatos fejlesztését, ahol a biztonság és az összehangolás alapvető prioritások, további műszaki és etikai biztosítékot nyújtva."
  • question: "Mi történik, ha a Hadügyminisztérium megszegi a megállapodást?" answer: "Megszegés esetén, mint bármely szerződéses megállapodásnál, az OpenAI fenntartja a szerződés felmondásának jogát. Ez jelentős visszatartó erőt jelent, biztosítva, hogy a Hadügyminisztérium szigorúan betartja a megállapodásban foglalt feltételeket. A felmondási záradék aláhúzza a megállapodásban rögzített biztonsági védőkorlátok és vörös vonalak komolyságát, demonstrálva az OpenAI elkötelezettségét etikai elveinek fenntartása iránt, még magas téttel bíró nemzetbiztonsági kontextusokban is. Bár az OpenAI nem számít ilyen jogsértésre, a szerződéses rendelkezés egyértelmű jogorvoslatot biztosít."
  • question: "Befolyásolják-e a jogszabályok vagy politikák jövőbeli változásai a megállapodás védelmeit?" answer: "Nem, a megállapodás úgy van kialakítva, hogy ellenálljon a jogszabályok vagy politikák jövőbeli változásainak. Kifejezetten hivatkozik a jelenlegi megfigyelési és autonóm fegyverekre vonatkozó törvényekre és politikákra, mint például a Negyedik Alkotmánykiegészítésre, a Nemzetbiztonsági Törvényre, a FISA Törvényre és a DoD 3000.09 irányelvére, ahogyan azok ma léteznek. Ez azt jelenti, hogy még ha ezeket a törvényeket vagy politikákat a jövőben módosítanák is, az OpenAI rendszereinek használatára e szerződés alapján továbbra is be kell tartani az eredeti megállapodásban tükrözött szigorú szabványokat. Ez a jövőbe mutató záradék erős, tartós védelmi réteget biztosít a védőkorlátok esetleges eróziója ellen."

OpenAI és a Hadügyminisztérium Megállapodása: Az AI Biztonsági Védőkorlátok Biztosítása

San Francisco, CA – 2026. március 3. – Az OpenAI jelentős frissítést jelentett be a Hadügyminisztériummal (DoW) kötött megállapodásában, megerősítve a szigorú biztonsági védőkorlátokat a fejlett AI rendszerek minősített környezetekben történő telepítésére vonatkozóan. Ez a mérföldkőnek számító együttműködés a felelősségteljes AI-használat iránti közös elkötelezettséget hangsúlyozza, különösen az érzékeny nemzetbiztonsági alkalmazások tekintetében. A frissített megállapodás, amelyet 2026. március 2-án véglegesítettek, kifejezetten tiltja az amerikai személyek belföldi megfigyelését, és korlátozza az AI autonóm fegyverrendszerekben való használatát, új mércét állítva fel a mesterséges intelligencia etikus integrációjához a védelemben.

Ennek a továbbfejlesztett megállapodásnak a lényege abban rejlik, hogy egyértelművé teszi azt, ami korábban is egyértelmű volt, biztosítva, hogy ne legyen kétértelműség az AI technológia etikai korlátaival kapcsolatban. Az OpenAI hangsúlyozza, hogy ez a keretrendszer az amerikai hadsereg élvonalbeli eszközökkel való ellátására szolgál, miközben szigorúan fenntartja az adatvédelmi és biztonsági elveket.

A Minősített AI Telepítések Védőkorlátjainak Újrafogalmazása

A potenciális aggodalmak kezelésére irányuló proaktív lépésként az OpenAI és a Hadügyminisztérium kiegészítő megfogalmazást épített be megállapodásába, amely kifejezetten tisztázza az AI telepítésének határait. Ez az új záradék egyértelműen kimondja, hogy az OpenAI eszközeit nem fogják felhasználni amerikai személyek belföldi megfigyelésére, beleértve a kereskedelmileg beszerzett személyes adatok megszerzését vagy felhasználását. Ezenkívül a DoW megerősítette, hogy hírszerző ügynökségei, mint például az NSA, ki vannak zárva ebből a megállapodásból, és bármilyen szolgáltatásnyújtáshoz teljesen új feltételekre lenne szükségük.

A megállapodás frissített szövege részletezi:

  • "Az alkalmazandó törvényekkel, beleértve az Egyesült Államok alkotmányának negyedik kiegészítését, az 1947-es Nemzetbiztonsági Törvényt, az 1978-as FISA Törvényt, összhangban az AI rendszert nem szabad szándékosan felhasználni amerikai személyek és állampolgárok belföldi megfigyelésére."
  • "A félreértések elkerülése végett a Minisztérium úgy értelmezi ezt a korlátozást, hogy tiltja az amerikai személyek vagy állampolgárok szándékos követését, megfigyelését vagy ellenőrzését, beleértve a kereskedelmileg beszerzett személyes vagy azonosítható információk beszerzését vagy felhasználását."

Ez a jövőbe mutató megközelítés célja, hogy egyértelmű utat biztosítson más élvonalbeli AI laborok számára a Hadügyminisztériummal való együttműködéshez, elősegítve az együttműködést, miközben fenntartja a megingathatatlan etikai szabványokat.

Az OpenAI Alapvető Etikai Pillérei: A Három Vörös Vonal

Az OpenAI három alapvető "vörös vonal" mentén működik, amelyek irányítják az érzékeny területeken, például a nemzetbiztonságban való együttműködéseit. Ezek az elvek, amelyeket más vezető AI kutatóintézetek is nagyrészt osztanak, központi szerepet játszanak a Hadügyminisztériummal kötött megállapodásban:

  1. Nincs tömeges belföldi megfigyelés: Az OpenAI technológiáját nem használják fel az amerikai állampolgárok széles körű megfigyelésére.
  2. Nincsenek autonóm fegyverrendszerek: A technológia nem irányíthat autonóm fegyvereket emberi irányítás nélkül.
  3. Nincsenek nagy téttel járó automatizált döntések: Az OpenAI eszközeit nem használják fel kritikus automatizált döntésekhez (pl. "szociális kredit" rendszerek), amelyek emberi felügyeletet igényelnek.

Az OpenAI állítja, hogy többrétegű stratégiája robusztusabb védelmet nyújt az elfogadhatatlan felhasználások ellen, összehasonlítva azokkal a megközelítésekkel, amelyek kizárólag a használati politikákra támaszkodnak. Ez a szigorú technikai és szerződéses biztosítékokra való hangsúly megkülönbözteti megállapodását a védelmi AI fejlődő táján.

Többrétegű Védelem: Architektúra, Szerződés és Emberi Szakértelem

Az OpenAI Hadügyminisztériummal kötött megállapodásának ereje a védelem átfogó, többrétegű megközelítésében rejlik. Ez magában foglalja:

  1. Telepítési Architektúra: A megállapodás kizárólag felhőalapú telepítést ír elő, biztosítva, hogy az OpenAI teljes diszkrécióval rendelkezzen biztonsági rétege felett, és megakadályozza a "védőkorlátok nélküli" modellek telepítését. Ez az architektúra eleve korlátozza az olyan felhasználási eseteket, mint az autonóm halálos fegyverek, amelyek jellemzően peremeszközön történő telepítést igényelnek. Független ellenőrzési mechanizmusok, beleértve a osztályozókat is, be vannak építve annak biztosítására, hogy ezeket a vörös vonalakat ne lépjék át.
  2. Robusztus Szerződéses Megfogalmazás: A szerződés kifejezetten részletezi az engedélyezett felhasználásokat, megkövetelve az "összes törvényes célra történő, az alkalmazandó törvényekkel, működési követelményekkel és jól megalapozott biztonsági és felügyeleti protokollokkal összhangban lévő" betartását. Kifejezetten hivatkozik az amerikai törvényekre, mint például a Negyedik Alkotmánykiegészítésre, az 1947-es Nemzetbiztonsági Törvényre, az 1978-as FISA Törvényre és a DoD 3000.09 irányelvére. Kulcsfontosságú, hogy tiltja az autonóm fegyverek független irányítását és az amerikai személyek magáninformációinak korlátlan ellenőrzését.
  3. AI Szakértők Bevonása: Minősített OpenAI mérnökök és biztonsági és összehangolási kutatók lesznek kitelepítve és "a körben" lesznek. Ez a közvetlen emberi felügyelet további biztosítékot nyújt, segítve a rendszerek idővel történő javítását és aktívan ellenőrizve a megállapodás szigorú feltételeinek betartását.

Ez az integrált megközelítés biztosítja, hogy a technológiai, jogi és emberi védőkorlátok mind összehangoltan működjenek a visszaélések megelőzése érdekében.

Vörös Vonal KategóriaAz OpenAI Védelmi Intézkedései
Tömeges Belföldi MegfigyelésKifejezett szerződéses tilalom, összhangban a Negyedik Alkotmánykiegészítéssel, a FISA-val, a Nemzetbiztonsági Törvénnyel; az NSA/hírszerző ügynökségek kizárása az alkalmazási körből; felhőalapú telepítés adat hozzáférési korlátozások; OpenAI személyzet 'a körben' ellenőrzése.
Autonóm FegyverrendszerekKizárólag felhőalapú telepítés (nincs peremeszközön történő telepítés halálos autonómiához); kifejezett szerződéses tilalom az autonóm fegyverek független irányítására; a DoD 3000.09 irányelv betartása az ellenőrzés/validálás tekintetében; OpenAI személyzet 'a körben' felügyelet céljából.
Nagy Téttel Járó Automatizált DöntésekKifejezett szerződéses nyelvezet, amely emberi jóváhagyást ír elő a nagy téttel járó döntésekhez; az OpenAI teljes ellenőrzést gyakorol biztonsági rétege felett, megakadályozva a "védőkorlátok nélküli" modelleket; OpenAI személyzet 'a körben', hogy biztosítsa az emberi felügyelet fenntartását a kritikus döntésekben.

Aggodalmak Kezelése és Jövőbeli AI Együttműködés Kovácsolása

Az OpenAI elismeri a fejlett AI-val járó belső kockázatokat, és a kormány és az AI laborok közötti mély együttműködést alapvetőnek tartja a jövő navigálásához. A Hadügyminisztériummal való együttműködés lehetővé teszi az amerikai hadsereg számára, hogy hozzáférjen az élvonalbeli eszközökhöz, miközben biztosítja e technológiák felelősségteljes telepítését.

"Úgy gondoljuk, hogy az amerikai hadseregnek feltétlenül szüksége van erős AI modellekre küldetése támogatásához, különösen a potenciális ellenfelek növekvő fenyegetéseivel szemben, akik egyre inkább integrálják az AI technológiákat rendszereikbe" – nyilatkozta az OpenAI. Ezt az elkötelezettséget a technikai védőkorlátok teljesítményért való feladásának megingathatatlan elutasítása egyensúlyozza, hangsúlyozva, hogy a felelősségteljes megközelítés a legfontosabb.

A megállapodás célja továbbá a feszültségek csökkentése és az AI közösségen belüli szélesebb körű együttműködés ösztönzése. Az OpenAI kérte, hogy ugyanezek a védelmi feltételek minden AI vállalat számára elérhetővé váljanak, remélve, hogy ez megkönnyíti a hasonló felelősségteljes partnerségeket az iparágban. Ez az OpenAI szélesebb körű stratégiájának része, amint azt a folyamatos Microsoft partnerségük és a mindenki számára skálázható AI-ra irányuló erőfeszítéseik is mutatják.

Új Szabvány Felállítása a Védelmi AI Együttműködéshez

Az OpenAI úgy véli, hogy megállapodása magasabb színvonalat állít fel a minősített AI telepítések számára a korábbi megállapodásokhoz képest, beleértve azokat is, amelyeket más laborok, például az Anthropic vitattak meg. A bizalom a beágyazott alapvető védelmekből fakad: a kizárólag felhőalapú telepítés, amely fenntartja az OpenAI biztonsági rétegének integritását, a kifejezett szerződéses garanciák és a minősített OpenAI személyzet aktív bevonása.

Ez az átfogó keretrendszer biztosítja, hogy a meghatározott vörös vonalak – a tömeges belföldi megfigyelés és az autonóm fegyverek irányításának megakadályozása – robusztusan érvényesüljenek. A meglévő törvényekre kifejezetten hivatkozó szerződéses nyelvezet biztosítja, hogy még ha a politikák a jövőben változnának is, az OpenAI rendszereinek használatára továbbra is az eredeti, szigorúbb szabványoknak megfelelően kell történnie. Ez a proaktív álláspont aláhúzza az OpenAI elkötelezettségét az erős AI technológiák fejlesztése és telepítése iránt oly módon, amely a biztonságot, az etikát és a demokratikus értékeket helyezi előtérbe, még a legigényesebb nemzetbiztonsági kontextusokban is.

Gyakran ismételt kérdések

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Maradjon naprakész

Kapja meg a legfrissebb AI híreket e-mailben.

Megosztás