Code Velocity
ความปลอดภัย AI

ข้อตกลง OpenAI กับกระทรวงกลาโหม: สร้างหลักประกันความปลอดภัย AI

·7 นาทีอ่าน·OpenAI·แหล่งที่มา
แชร์
ข้อตกลงระหว่าง OpenAI และกระทรวงกลาโหมพร้อมหลักประกันความปลอดภัย AI

OpenAI และกระทรวงกลาโหมเสริมสร้างความปลอดภัย AI ด้วยหลักประกันที่ชัดเจน

ซานฟรานซิสโก, แคลิฟอร์เนีย – 3 มีนาคม 2026 – OpenAI ได้ประกาศการปรับปรุงข้อตกลงที่สำคัญกับกระทรวงกลาโหม (DoW) เพื่อเสริมสร้างหลักประกันความปลอดภัยที่เข้มงวดในการปรับใช้ระบบ AI ขั้นสูงในสภาพแวดล้อมที่เป็นความลับ ความร่วมมือครั้งสำคัญนี้เน้นย้ำถึงความมุ่งมั่นร่วมกันในการใช้ AI อย่างมีความรับผิดชอบ โดยเฉพาะอย่างยิ่งในส่วนที่เกี่ยวกับการใช้งานด้านความมั่นคงของชาติที่มีความละเอียดอ่อน ข้อตกลงที่ปรับปรุงใหม่ ซึ่งสรุปเมื่อวันที่ 2 มีนาคม 2026 ห้ามการเฝ้าระวังภายในประเทศของบุคคลสัญชาติสหรัฐฯ โดยชัดแจ้ง และจำกัดการใช้ AI ในระบบอาวุธอัตโนมัติ กำหนดมาตรฐานใหม่สำหรับการบูรณาการปัญญาประดิษฐ์อย่างมีจริยธรรมในการป้องกันประเทศ

แก่นของข้อตกลงที่ได้รับการปรับปรุงนี้อยู่ที่การทำให้สิ่งที่เคยเข้าใจเป็นไปอย่างชัดเจน เพื่อให้แน่ใจว่าไม่มีความคลุมเครือเกี่ยวกับข้อจำกัดทางจริยธรรมของเทคโนโลยี AI OpenAI เน้นย้ำว่ากรอบการทำงานนี้ได้รับการออกแบบมาเพื่อจัดหาเครื่องมือที่ล้ำสมัยให้แก่กองทัพสหรัฐฯ ในขณะที่ยังคงยึดมั่นในหลักการความเป็นส่วนตัวและความปลอดภัยอย่างเคร่งครัด

กำหนดนิยามใหม่ของหลักประกันสำหรับการปรับใช้ AI ที่เป็นความลับ

ในการดำเนินการเชิงรุกเพื่อจัดการกับข้อกังวลที่อาจเกิดขึ้น OpenAI และกระทรวงกลาโหมได้เพิ่มข้อความเพิ่มเติมในข้อตกลงของพวกเขา ซึ่งชี้แจงขอบเขตของการปรับใช้ AI โดยเฉพาะ ข้อกำหนดใหม่นี้ระบุอย่างชัดเจนว่าเครื่องมือของ OpenAI จะไม่ถูกใช้สำหรับการเฝ้าระวังภายในประเทศของบุคคลสัญชาติสหรัฐฯ ซึ่งรวมถึงการได้มาหรือการใช้ข้อมูลส่วนบุคคลที่ได้มาจากการค้า นอกจากนี้ กระทรวงกลาโหมยังยืนยันว่าหน่วยข่าวกรองของตน เช่น NSA ถูกยกเว้นจากข้อตกลงนี้ และจะต้องมีข้อกำหนดใหม่ทั้งหมดสำหรับบริการใดๆ

ข้อความที่ปรับปรุงใหม่ในข้อตกลงระบุรายละเอียด:

  • 'สอดคล้องกับกฎหมายที่บังคับใช้ รวมถึง Fourth Amendment ของรัฐธรรมนูญแห่งสหรัฐอเมริกา, National Security Act of 1947, FISA Act of 1978, ระบบ AI จะไม่ถูกใช้โดยเจตนาเพื่อการเฝ้าระวังภายในประเทศของบุคคลและพลเมืองสหรัฐฯ'
  • 'เพื่อหลีกเลี่ยงข้อสงสัย กระทรวงเข้าใจข้อจำกัดนี้ว่าห้ามการติดตาม การเฝ้าระวัง หรือการตรวจสอบบุคคลหรือพลเมืองสหรัฐฯ โดยเจตนา รวมถึงการจัดซื้อหรือการใช้ข้อมูลส่วนบุคคลหรือข้อมูลระบุตัวตนที่ได้มาจากการค้า'

แนวทางที่มองการณ์ไกลนี้มีเป้าหมายเพื่อสร้างเส้นทางที่ชัดเจนสำหรับห้องแล็บ AI ชั้นนำอื่นๆ ในการร่วมมือกับกระทรวงกลาโหม ส่งเสริมความร่วมมือในขณะที่ยังคงรักษามาตรฐานทางจริยธรรมที่ไม่เปลี่ยนแปลง

เสาหลักทางจริยธรรมหลักของ OpenAI: สามเส้นแบ่งที่ห้ามล้ำ

OpenAI ดำเนินการภายใต้ "สามเส้นแบ่งที่ห้ามล้ำ" พื้นฐานที่ควบคุมความร่วมมือในโดเมนที่ละเอียดอ่อน เช่น ความมั่นคงของชาติ หลักการเหล่านี้ ซึ่งส่วนใหญ่เป็นที่ยอมรับร่วมกันโดยสถาบันวิจัย AI ชั้นนำอื่นๆ เป็นหัวใจสำคัญของข้อตกลงกับกระทรวงกลาโหม:

  1. ไม่มีการเฝ้าระวังภายในประเทศจำนวนมาก: เทคโนโลยีของ OpenAI จะไม่ถูกใช้เพื่อการเฝ้าระวังพลเมืองสหรัฐฯ ในวงกว้าง
  2. ไม่มีระบบอาวุธอัตโนมัติ: เทคโนโลยีนี้ห้ามไม่ให้ใช้ในการสั่งการอาวุธอัตโนมัติโดยไม่มีการควบคุมจากมนุษย์
  3. ไม่มีการตัดสินใจอัตโนมัติที่มีความเสี่ยงสูง: เครื่องมือของ OpenAI จะไม่ถูกนำมาใช้สำหรับการตัดสินใจอัตโนมัติที่สำคัญ (เช่น ระบบ 'คะแนนสังคม') ที่ต้องมีการกำกับดูแลจากมนุษย์

OpenAI ยืนยันว่ากลยุทธ์หลายชั้นของตนให้การปกป้องที่แข็งแกร่งยิ่งขึ้นจากการใช้งานที่ไม่พึงประสงค์ เมื่อเทียบกับแนวทางที่อาศัยนโยบายการใช้งานเพียงอย่างเดียว การเน้นย้ำถึงมาตรการป้องกันทางเทคนิคและสัญญาที่เข้มงวดนี้ทำให้ข้อตกลงของ OpenAI แตกต่างออกไปในภูมิทัศน์ที่กำลังพัฒนาของ AI ด้านการป้องกันประเทศ

การป้องกันหลายชั้น: สถาปัตยกรรม สัญญา และความเชี่ยวชาญของมนุษย์

ความแข็งแกร่งของข้อตกลงของ OpenAI กับกระทรวงกลาโหมอยู่ที่แนวทางที่ครอบคลุมและหลายชั้นในการป้องกัน ซึ่งรวมถึง:

  1. สถาปัตยกรรมการปรับใช้: ข้อตกลงนี้กำหนดให้มีการปรับใช้แบบคลาวด์เท่านั้น เพื่อให้แน่ใจว่า OpenAI ยังคงมีดุลยพินิจเต็มที่เหนือสแต็คความปลอดภัยและป้องกันการปรับใช้โมเดล 'ที่ปิดหลักประกัน' สถาปัตยกรรมนี้โดยธรรมชาติจะจำกัดกรณีการใช้งานบางอย่าง เช่น อาวุธสังหารอัตโนมัติ ซึ่งโดยทั่วไปต้องมีการปรับใช้แบบปลายทาง มีกลไกการตรวจสอบอิสระ รวมถึงตัวจำแนก เพื่อให้แน่ใจว่าไม่มีการละเมิดเส้นแบ่งเหล่านี้
  2. ภาษาในสัญญาที่แข็งแกร่ง: สัญญาระบุรายละเอียดการใช้งานที่อนุญาตอย่างชัดเจน โดยกำหนดให้ปฏิบัติตาม "วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด สอดคล้องกับกฎหมายที่บังคับใช้ ข้อกำหนดในการปฏิบัติงาน และระเบียบปฏิบัติด้านความปลอดภัยและการกำกับดูแลที่ได้รับการยอมรับอย่างดี" โดยอ้างอิงกฎหมายของสหรัฐอเมริกาโดยเฉพาะ เช่น Fourth Amendment, National Security Act of 1947, FISA Act of 1978 และ DoD Directive 3000.09 สิ่งสำคัญคือ ห้ามการสั่งการอาวุธอัตโนมัติโดยอิสระและการเฝ้าระวังข้อมูลส่วนตัวของบุคคลสัญชาติสหรัฐฯ อย่างไม่จำกัด
  3. การมีส่วนร่วมของผู้เชี่ยวชาญ AI: วิศวกรของ OpenAI ที่ผ่านการตรวจสอบแล้ว และนักวิจัยด้านความปลอดภัยและการจัดแนว จะถูกประจำการในพื้นที่และ 'อยู่ในกระบวนการ' การกำกับดูแลโดยมนุษย์โดยตรงนี้ให้การรับประกันเพิ่มเติม ช่วยในการปรับปรุงระบบเมื่อเวลาผ่านไป และตรวจสอบการปฏิบัติตามเงื่อนไขที่เข้มงวดของข้อตกลงอย่างกระตือรือร้น

แนวทางแบบบูรณาการนี้ช่วยให้มั่นใจได้ว่ามาตรการป้องกันทางเทคนิค กฎหมาย และมนุษย์ ทั้งหมดทำงานร่วมกันเพื่อป้องกันการใช้งานในทางที่ผิด

หมวดหมู่เส้นแบ่งที่ห้ามล้ำมาตรการป้องกันของ OpenAI
การเฝ้าระวังภายในประเทศจำนวนมากข้อห้ามตามสัญญาที่ชัดเจน การจัดแนวกับ Fourth Amendment, FISA, National Security Act; การยกเว้น NSA/หน่วยข่าวกรองจากขอบเขต; ข้อจำกัดการเข้าถึงข้อมูลในการปรับใช้แบบคลาวด์เท่านั้น; บุคลากร OpenAI ในกระบวนการตรวจสอบ
ระบบอาวุธอัตโนมัติการปรับใช้แบบคลาวด์เท่านั้น (ไม่มีการปรับใช้แบบปลายทางสำหรับระบบสังหารอัตโนมัติ); ข้อห้ามตามสัญญาที่ชัดเจนในการสั่งการอาวุธอัตโนมัติโดยอิสระ; การปฏิบัติตาม DoD Directive 3000.09 สำหรับการตรวจสอบ/การยืนยัน; บุคลากร OpenAI ในกระบวนการสำหรับการกำกับดูแล
การตัดสินใจอัตโนมัติที่มีความเสี่ยงสูงภาษาในสัญญาที่ชัดเจนซึ่งกำหนดให้มีการอนุมัติจากมนุษย์สำหรับการตัดสินใจที่มีความเสี่ยงสูง; OpenAI ยังคงควบคุมสแต็คความปลอดภัยอย่างเต็มที่ ป้องกันโมเดล 'ที่ปิดหลักประกัน'; บุคลากร OpenAI ในกระบวนการเพื่อให้แน่ใจว่ามีการกำกับดูแลโดยมนุษย์ในกรณีที่เกี่ยวข้องกับการตัดสินใจที่สำคัญ

การจัดการกับข้อกังวลและการสร้างความร่วมมือ AI ในอนาคต

OpenAI ตระหนักถึงความเสี่ยงโดยธรรมชาติของ AI ขั้นสูง และมองว่าความร่วมมืออย่างลึกซึ้งระหว่างรัฐบาลและห้องแล็บ AI เป็นสิ่งจำเป็นสำหรับการนำทางในอนาคต การมีส่วนร่วมกับกระทรวงกลาโหมช่วยให้กองทัพสหรัฐฯ สามารถเข้าถึงเครื่องมือที่ล้ำสมัยในขณะที่มั่นใจว่าเทคโนโลยีเหล่านี้ได้รับการปรับใช้อย่างมีความรับผิดชอบ

"เราคิดว่ากองทัพสหรัฐฯ จำเป็นต้องมีโมเดล AI ที่แข็งแกร่งอย่างยิ่งเพื่อสนับสนุนภารกิจของตน โดยเฉพาะอย่างยิ่งเมื่อเผชิญกับภัยคุกคามที่เพิ่มขึ้นจากผู้ที่มีโอกาสเป็นศัตรูที่กำลังรวมเทคโนโลยี AI เข้ากับระบบของพวกเขามากขึ้นเรื่อยๆ" OpenAI กล่าว ความมุ่งมั่นนี้สมดุลกับการปฏิเสธที่จะประนีประนอมมาตรการป้องกันทางเทคนิคเพื่อประสิทธิภาพ โดยเน้นย้ำว่าแนวทางที่มีความรับผิดชอบเป็นสิ่งสำคัญยิ่ง

ข้อตกลงนี้ยังมีเป้าหมายเพื่อลดความตึงเครียดและส่งเสริมความร่วมมือที่กว้างขวางขึ้นภายในชุมชน AI OpenAI ได้ขอให้ข้อกำหนดการป้องกันเดียวกันนี้มีให้สำหรับบริษัท AI ทุกแห่ง โดยหวังว่าจะอำนวยความสะดวกในการเป็นพันธมิตรที่มีความรับผิดชอบที่คล้ายกันทั่วทั้งอุตสาหกรรม นี่เป็นส่วนหนึ่งของกลยุทธ์ที่กว้างขึ้นของ OpenAI ดังที่แสดงให้เห็นโดย ความร่วมมืออย่างต่อเนื่องกับ Microsoft และความพยายามในการ ขยาย AI เพื่อทุกคน

การกำหนดมาตรฐานใหม่สำหรับการมีส่วนร่วมของ AI ด้านการป้องกันประเทศ

OpenAI เชื่อว่าข้อตกลงนี้กำหนดมาตรฐานที่สูงขึ้นสำหรับการปรับใช้ AI ที่เป็นความลับ เมื่อเทียบกับการจัดการก่อนหน้านี้ รวมถึงที่กล่าวถึงโดยห้องแล็บอื่นๆ เช่น Anthropic ความมั่นใจนี้มาจากมาตรการป้องกันพื้นฐานที่ฝังอยู่: การปรับใช้แบบคลาวด์เท่านั้นที่รักษาความสมบูรณ์ของสแต็คความปลอดภัยของ OpenAI การรับประกันตามสัญญาที่ชัดเจน และการมีส่วนร่วมอย่างกระตือรือร้นของบุคลากร OpenAI ที่ผ่านการตรวจสอบแล้ว

กรอบการทำงานที่ครอบคลุมนี้รับรองว่าเส้นแบ่งที่ระบุไว้ – การป้องกันการเฝ้าระวังภายในประเทศจำนวนมากและการควบคุมอาวุธอัตโนมัติ – ได้รับการบังคับใช้อย่างแข็งขัน ภาษาในสัญญาที่อ้างอิงถึงกฎหมายที่มีอยู่โดยชัดแจ้งทำให้มั่นใจได้ว่าแม้ว่านโยบายจะเปลี่ยนแปลงในอนาคต การใช้ระบบของ OpenAI ก็ยังคงต้องเป็นไปตามมาตรฐานที่เข้มงวดดั้งเดิม ท่าทีเชิงรุกนี้เน้นย้ำถึงความมุ่งมั่นของ OpenAI ในการพัฒนาและปรับใช้เทคโนโลยี AI ที่ทรงพลังในลักษณะที่ให้ความสำคัญกับความปลอดภัย จริยธรรม และค่านิยมประชาธิปไตย แม้ในบริบทความมั่นคงของชาติที่ต้องการความท้าทายมากที่สุดก็ตาม

คำถามที่พบบ่อย

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์