Code Velocity
אבטחת AI

הסכם משרד המלחמה של OpenAI: הבטחת אמצעי הגנה לבטיחות AI

·7 דקות קריאה·OpenAI·מקור מקורי
שתף
הסכם OpenAI ומשרד המלחמה עם אמצעי הגנה לבטיחות AI

OpenAI ומשרד המלחמה מחזקים את בטיחות ה-AI עם אמצעי הגנה מפורשים

סן פרנסיסקו, קליפורניה – 3 במרץ 2026 – OpenAI הכריזה על עדכון משמעותי להסכם שלה עם משרד המלחמה (DoW), המחזק אמצעי הגנה קפדניים סביב פריסת מערכות AI מתקדמות בסביבות מסווגות. שיתוף פעולה פורץ דרך זה מדגיש מחויבות משותפת לשימוש אחראי ב-AI, במיוחד לגבי יישומי ביטחון לאומי רגישים. ההסכם המעודכן, שאושר ב-2 במרץ 2026, אוסר במפורש מעקב פנים-מדינתי אחר אזרחי ארה"ב ומגביל את השימוש ב-AI במערכות כלי נשק אוטונומיות, וקובע אמת מידה חדשה לשילוב אתי של בינה מלאכותית בהגנה.

לב ליבו של הסכם משופר זה טמון בהפיכת מה שהיה מובן קודם לכן למפורש, מה שמבטיח אפס עמימות לגבי המגבלות האתיות של טכנולוגיית AI. OpenAI מדגישה כי מסגרת זו נועדה לספק לצבא ארה"ב כלים חדשניים תוך שמירה קפדנית על עקרונות פרטיות ובטיחות.

הגדרה מחדש של אמצעי הגנה לפריסות AI מסווגות

במהלך יזום כדי לטפל בחששות פוטנציאליים, OpenAI ומשרד המלחמה שילבו שפה נוספת בהסכם שלהם, המבהירה במפורש את גבולות פריסת ה-AI. סעיף חדש זה קובע באופן חד משמעי שכלים של OpenAI לא ישמשו למעקב פנים-מדינתי אחר אזרחי ארה"ב, כולל באמצעות רכישה או שימוש במידע אישי שהושג מסחרית. יתר על כן, משרד המלחמה אישר כי סוכנויות הביון שלו, כגון ה-NSA, אינן נכללות בהסכם זה וידרשו תנאים חדשים לחלוטין עבור כל מתן שירות.

השפה המעודכנת בהסכם מפרטת:

  • "בהתאם לחוקים החלים, כולל התיקון הרביעי לחוקת ארצות הברית, חוק הביטחון הלאומי משנת 1947, חוק FISA משנת 1978, מערכת ה-AI לא תשמש בכוונה למעקב פנים-מדינתי אחר אזרחים ותושבים אמריקאים."
  • "כדי למנוע ספק, המשרד מבין כי הגבלה זו אוסרת מעקב, ניטור או פיקוח מכוונים אחר אזרחים או תושבים אמריקאים, כולל באמצעות רכישה או שימוש במידע אישי או מזהה שנרכש מסחרית."

גישה צופת פני עתיד זו שואפת לבסס נתיב ברור למעבדות AI חלוציות אחרות כדי ליצור קשר עם משרד המלחמה, ולטפח שיתוף פעולה תוך שמירה על סטנדרטים אתיים בלתי מתפשרים.

עמודי התווך האתיים המרכזיים של OpenAI: שלושת הקווים האדומים

OpenAI פועלת תחת שלושה "קווים אדומים" יסודיים המנהלים את שיתופי הפעולה שלה בתחומים רגישים כמו ביטחון לאומי. עקרונות אלה, המשותפים במידה רבה למוסדות מחקר AI מובילים אחרים, עומדים בבסיס ההסכם עם משרד המלחמה:

  1. ללא מעקב המוני פנים-מדינתי: טכנולוגיית OpenAI לא תשמש לניטור נרחב של אזרחי ארה"ב.
  2. ללא מערכות כלי נשק אוטונומיות: הטכנולוגיה אסורה לכוון כלי נשק אוטונומיים ללא שליטה אנושית.
  3. ללא החלטות אוטומטיות בעלות חשיבות עליונה: כלי OpenAI לא יועסקו עבור החלטות אוטומטיות קריטיות (לדוגמה, מערכות 'אשראי חברתי') הדורשות פיקוח אנושי.

OpenAI טוענת כי האסטרטגיה הרב-שכבתית שלה מספקת הגנה חזקה יותר מפני שימושים בלתי קבילים בהשוואה לגישות המסתמכות בעיקר על מדיניות שימוש בלבד. דגש זה על אמצעי הגנה טכניים וחוזים קפדניים מבחין את ההסכם שלה בנוף המתפתח של AI בתחום ההגנה.

הגנה רב-שכבתית: ארכיטקטורה, חוזה ומומחיות אנושית

חוזקו של הסכם OpenAI עם משרד המלחמה טמון בגישתו המקיפה ורב-שכבתית להגנה. זה כולל:

  1. ארכיטקטורת פריסה: ההסכם מחייב פריסה מבוססת ענן בלבד, המבטיחה ש-OpenAI תשמור על שיקול דעת מלא על ערימת הבטיחות שלה ומונעת פריסה של מודלים 'ללא מעקות בטיחות'. ארכיטקטורה זו מגבילה באופן אינהרנטי מקרי שימוש כגון כלי נשק קטלניים אוטונומיים, שבדרך כלל דורשים פריסה בקצה. מנגנוני אימות עצמאיים, כולל מסווגים, קיימים כדי להבטיח שקווים אדומים אלה לא ייחצו.
  2. שפה חוזית חזקה: החוזה מפרט במפורש שימושים מותרים, ומחייב עמידה ב"כל המטרות החוקיות, בהתאם לחוקים החלים, דרישות תפעוליות, ופרוטוקולי בטיחות ופיקוח מבוססים היטב." הוא מתייחס במפורש לחוקי ארה"ב כגון התיקון הרביעי, חוק הביטחון הלאומי משנת 1947, חוק FISA משנת 1978, והנחיית משרד ההגנה 3000.09. באופן מכריע, הוא אוסר על ניהול עצמאי של כלי נשק אוטונומיים וניטור בלתי מוגבל של מידע פרטי של אזרחי ארה"ב.
  3. מעורבות מומחי AI: מהנדסים וחוקרי בטיחות והתאמה בעלי סיווג ביטחוני של OpenAI יפרסו קדימה ויהיו "בתוך הלולאה". פיקוח אנושי ישיר זה מספק שכבת ביטחון נוספת, מסייע בשיפור מערכות לאורך זמן ובאימות פעיל של עמידה בתנאים הקפדניים של ההסכם.

גישה משולבת זו מבטיחה שאמצעי הגנה טכנולוגיים, משפטיים ואנושיים פועלים יחד כדי למנוע שימוש לרעה.

קטגוריית קו אדוםאמצעי הגנה של OpenAI
מעקב המוני פנים-מדינתיאיסור חוזי מפורש, התאמה לתיקון הרביעי, FISA, חוק הביטחון הלאומי; החרגת NSA/סוכנויות ביון מהתחולה; מגבלות פריסת ענן על גישה לנתונים; צוות OpenAI בתוך הלולאה לאימות.
מערכות כלי נשק אוטונומיותפריסת ענן בלבד (ללא פריסה בקצה עבור אוטונומיה קטלנית); איסור חוזי מפורש נגד ניהול עצמאי של כלי נשק אוטונומיים; עמידה בהנחיית משרד ההגנה 3000.09 לאימות/תוקף; צוות OpenAI בתוך הלולאה לפיקוח.
החלטות אוטומטיות בעלות חשיבות עליונהשפה חוזית מפורשת הדורשת אישור אנושי להחלטות בעלות חשיבות עליונה; OpenAI שומרת על שליטה מלאה על ערימת הבטיחות שלה, ומונעת מודלים 'ללא מעקות בטיחות'; צוות OpenAI בתוך הלולאה כדי להבטיח שמירה על פיקוח אנושי היכן שמעורבות החלטות קריטיות.

התמודדות עם חששות וגיבוש שיתוף פעולה עתידי ב-AI

OpenAI מכירה בסיכונים הטמונים ב-AI מתקדם ורואה בשיתוף פעולה עמוק בין הממשלה למעבדות AI חיוני לניווט בעתיד. יצירת קשר עם משרד המלחמה מאפשרת לצבא ארה"ב לגשת לכלים חדישים תוך הבטחה שטכנולוגיות אלו נפרסות באחריות.

"אנו סבורים כי צבא ארה"ב בהחלט זקוק למודלי AI חזקים כדי לתמוך במשימתו, במיוחד לנוכח איומים הולכים וגוברים מצד יריבים פוטנציאליים המשלבים יותר ויותר טכנולוגיות AI במערכות שלהם", קבעה OpenAI. מחויבות זו מאוזנת עם סירוב בלתי מתפשר להתפשר על אמצעי הגנה טכניים לטובת ביצועים, תוך הדגשה כי גישה אחראית היא בעלת חשיבות עליונה.

ההסכם גם שואף להפחית את המתיחות ולטפח שיתוף פעולה רחב יותר בקהילת ה-AI. OpenAI ביקשה שאותם תנאים מגנים יהיו זמינים לכל חברות ה-AI, בתקווה להקל על שותפויות אחראיות דומות ברחבי התעשייה. זהו חלק מהאסטרטגיה הרחבה יותר של OpenAI, כפי שהודגם על ידי שותפותה המתמשכת עם מיקרוסופט ומאמציה להגדלת AI עבור כולם.

קביעת סטנדרט חדש למעורבות AI בתחום ההגנה

OpenAI מאמינה שההסכם שלה קובע סטנדרט גבוה יותר לפריסות AI מסווגות בהשוואה להסדרים קודמים, כולל אלה שנדונו על ידי מעבדות אחרות כמו Anthropic. הביטחון נובע מההגנות היסודיות המשובצות: פריסת הענן בלבד השומרת על שלמות ערימת הבטיחות של OpenAI, הערבויות החוזיות המפורשות, והמעורבות הפעילה של צוות OpenAI בעל סיווג ביטחוני.

מסגרת מקיפה זו מבטיחה כי ה"קווים האדומים" שצוינו – מניעת מעקב המוני פנים-מדינתי ושליטה בכלי נשק אוטונומיים – נאכפים באופן חזק. השפה החוזית המתייחסת במפורש לחוקים קיימים מבטיחה שגם אם מדיניות תשתנה בעתיד, השימוש במערכות של OpenAI יצטרך עדיין לעמוד בסטנדרטים המקוריים והמחמירים יותר. עמדה יזומה זו מדגישה את מחויבותה של OpenAI לפיתוח ופריסה של טכנולוגיות AI חזקות באופן שמעניק עדיפות לבטיחות, לאתיקה ולערכים דמוקרטיים, גם בהקשרי הביטחון הלאומי התובעניים ביותר.

שאלות נפוצות

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

הישארו מעודכנים

קבלו את חדשות ה-AI האחרונות לתיבת הדוא״ל.

שתף