OpenAI ומשרד המלחמה מחזקים את בטיחות ה-AI עם אמצעי הגנה מפורשים
סן פרנסיסקו, קליפורניה – 3 במרץ 2026 – OpenAI הכריזה על עדכון משמעותי להסכם שלה עם משרד המלחמה (DoW), המחזק אמצעי הגנה קפדניים סביב פריסת מערכות AI מתקדמות בסביבות מסווגות. שיתוף פעולה פורץ דרך זה מדגיש מחויבות משותפת לשימוש אחראי ב-AI, במיוחד לגבי יישומי ביטחון לאומי רגישים. ההסכם המעודכן, שאושר ב-2 במרץ 2026, אוסר במפורש מעקב פנים-מדינתי אחר אזרחי ארה"ב ומגביל את השימוש ב-AI במערכות כלי נשק אוטונומיות, וקובע אמת מידה חדשה לשילוב אתי של בינה מלאכותית בהגנה.
לב ליבו של הסכם משופר זה טמון בהפיכת מה שהיה מובן קודם לכן למפורש, מה שמבטיח אפס עמימות לגבי המגבלות האתיות של טכנולוגיית AI. OpenAI מדגישה כי מסגרת זו נועדה לספק לצבא ארה"ב כלים חדשניים תוך שמירה קפדנית על עקרונות פרטיות ובטיחות.
הגדרה מחדש של אמצעי הגנה לפריסות AI מסווגות
במהלך יזום כדי לטפל בחששות פוטנציאליים, OpenAI ומשרד המלחמה שילבו שפה נוספת בהסכם שלהם, המבהירה במפורש את גבולות פריסת ה-AI. סעיף חדש זה קובע באופן חד משמעי שכלים של OpenAI לא ישמשו למעקב פנים-מדינתי אחר אזרחי ארה"ב, כולל באמצעות רכישה או שימוש במידע אישי שהושג מסחרית. יתר על כן, משרד המלחמה אישר כי סוכנויות הביון שלו, כגון ה-NSA, אינן נכללות בהסכם זה וידרשו תנאים חדשים לחלוטין עבור כל מתן שירות.
השפה המעודכנת בהסכם מפרטת:
- "בהתאם לחוקים החלים, כולל התיקון הרביעי לחוקת ארצות הברית, חוק הביטחון הלאומי משנת 1947, חוק FISA משנת 1978, מערכת ה-AI לא תשמש בכוונה למעקב פנים-מדינתי אחר אזרחים ותושבים אמריקאים."
- "כדי למנוע ספק, המשרד מבין כי הגבלה זו אוסרת מעקב, ניטור או פיקוח מכוונים אחר אזרחים או תושבים אמריקאים, כולל באמצעות רכישה או שימוש במידע אישי או מזהה שנרכש מסחרית."
גישה צופת פני עתיד זו שואפת לבסס נתיב ברור למעבדות AI חלוציות אחרות כדי ליצור קשר עם משרד המלחמה, ולטפח שיתוף פעולה תוך שמירה על סטנדרטים אתיים בלתי מתפשרים.
עמודי התווך האתיים המרכזיים של OpenAI: שלושת הקווים האדומים
OpenAI פועלת תחת שלושה "קווים אדומים" יסודיים המנהלים את שיתופי הפעולה שלה בתחומים רגישים כמו ביטחון לאומי. עקרונות אלה, המשותפים במידה רבה למוסדות מחקר AI מובילים אחרים, עומדים בבסיס ההסכם עם משרד המלחמה:
- ללא מעקב המוני פנים-מדינתי: טכנולוגיית OpenAI לא תשמש לניטור נרחב של אזרחי ארה"ב.
- ללא מערכות כלי נשק אוטונומיות: הטכנולוגיה אסורה לכוון כלי נשק אוטונומיים ללא שליטה אנושית.
- ללא החלטות אוטומטיות בעלות חשיבות עליונה: כלי OpenAI לא יועסקו עבור החלטות אוטומטיות קריטיות (לדוגמה, מערכות 'אשראי חברתי') הדורשות פיקוח אנושי.
OpenAI טוענת כי האסטרטגיה הרב-שכבתית שלה מספקת הגנה חזקה יותר מפני שימושים בלתי קבילים בהשוואה לגישות המסתמכות בעיקר על מדיניות שימוש בלבד. דגש זה על אמצעי הגנה טכניים וחוזים קפדניים מבחין את ההסכם שלה בנוף המתפתח של AI בתחום ההגנה.
הגנה רב-שכבתית: ארכיטקטורה, חוזה ומומחיות אנושית
חוזקו של הסכם OpenAI עם משרד המלחמה טמון בגישתו המקיפה ורב-שכבתית להגנה. זה כולל:
- ארכיטקטורת פריסה: ההסכם מחייב פריסה מבוססת ענן בלבד, המבטיחה ש-OpenAI תשמור על שיקול דעת מלא על ערימת הבטיחות שלה ומונעת פריסה של מודלים 'ללא מעקות בטיחות'. ארכיטקטורה זו מגבילה באופן אינהרנטי מקרי שימוש כגון כלי נשק קטלניים אוטונומיים, שבדרך כלל דורשים פריסה בקצה. מנגנוני אימות עצמאיים, כולל מסווגים, קיימים כדי להבטיח שקווים אדומים אלה לא ייחצו.
- שפה חוזית חזקה: החוזה מפרט במפורש שימושים מותרים, ומחייב עמידה ב"כל המטרות החוקיות, בהתאם לחוקים החלים, דרישות תפעוליות, ופרוטוקולי בטיחות ופיקוח מבוססים היטב." הוא מתייחס במפורש לחוקי ארה"ב כגון התיקון הרביעי, חוק הביטחון הלאומי משנת 1947, חוק FISA משנת 1978, והנחיית משרד ההגנה 3000.09. באופן מכריע, הוא אוסר על ניהול עצמאי של כלי נשק אוטונומיים וניטור בלתי מוגבל של מידע פרטי של אזרחי ארה"ב.
- מעורבות מומחי AI: מהנדסים וחוקרי בטיחות והתאמה בעלי סיווג ביטחוני של OpenAI יפרסו קדימה ויהיו "בתוך הלולאה". פיקוח אנושי ישיר זה מספק שכבת ביטחון נוספת, מסייע בשיפור מערכות לאורך זמן ובאימות פעיל של עמידה בתנאים הקפדניים של ההסכם.
גישה משולבת זו מבטיחה שאמצעי הגנה טכנולוגיים, משפטיים ואנושיים פועלים יחד כדי למנוע שימוש לרעה.
| קטגוריית קו אדום | אמצעי הגנה של OpenAI |
|---|---|
| מעקב המוני פנים-מדינתי | איסור חוזי מפורש, התאמה לתיקון הרביעי, FISA, חוק הביטחון הלאומי; החרגת NSA/סוכנויות ביון מהתחולה; מגבלות פריסת ענן על גישה לנתונים; צוות OpenAI בתוך הלולאה לאימות. |
| מערכות כלי נשק אוטונומיות | פריסת ענן בלבד (ללא פריסה בקצה עבור אוטונומיה קטלנית); איסור חוזי מפורש נגד ניהול עצמאי של כלי נשק אוטונומיים; עמידה בהנחיית משרד ההגנה 3000.09 לאימות/תוקף; צוות OpenAI בתוך הלולאה לפיקוח. |
| החלטות אוטומטיות בעלות חשיבות עליונה | שפה חוזית מפורשת הדורשת אישור אנושי להחלטות בעלות חשיבות עליונה; OpenAI שומרת על שליטה מלאה על ערימת הבטיחות שלה, ומונעת מודלים 'ללא מעקות בטיחות'; צוות OpenAI בתוך הלולאה כדי להבטיח שמירה על פיקוח אנושי היכן שמעורבות החלטות קריטיות. |
התמודדות עם חששות וגיבוש שיתוף פעולה עתידי ב-AI
OpenAI מכירה בסיכונים הטמונים ב-AI מתקדם ורואה בשיתוף פעולה עמוק בין הממשלה למעבדות AI חיוני לניווט בעתיד. יצירת קשר עם משרד המלחמה מאפשרת לצבא ארה"ב לגשת לכלים חדישים תוך הבטחה שטכנולוגיות אלו נפרסות באחריות.
"אנו סבורים כי צבא ארה"ב בהחלט זקוק למודלי AI חזקים כדי לתמוך במשימתו, במיוחד לנוכח איומים הולכים וגוברים מצד יריבים פוטנציאליים המשלבים יותר ויותר טכנולוגיות AI במערכות שלהם", קבעה OpenAI. מחויבות זו מאוזנת עם סירוב בלתי מתפשר להתפשר על אמצעי הגנה טכניים לטובת ביצועים, תוך הדגשה כי גישה אחראית היא בעלת חשיבות עליונה.
ההסכם גם שואף להפחית את המתיחות ולטפח שיתוף פעולה רחב יותר בקהילת ה-AI. OpenAI ביקשה שאותם תנאים מגנים יהיו זמינים לכל חברות ה-AI, בתקווה להקל על שותפויות אחראיות דומות ברחבי התעשייה. זהו חלק מהאסטרטגיה הרחבה יותר של OpenAI, כפי שהודגם על ידי שותפותה המתמשכת עם מיקרוסופט ומאמציה להגדלת AI עבור כולם.
קביעת סטנדרט חדש למעורבות AI בתחום ההגנה
OpenAI מאמינה שההסכם שלה קובע סטנדרט גבוה יותר לפריסות AI מסווגות בהשוואה להסדרים קודמים, כולל אלה שנדונו על ידי מעבדות אחרות כמו Anthropic. הביטחון נובע מההגנות היסודיות המשובצות: פריסת הענן בלבד השומרת על שלמות ערימת הבטיחות של OpenAI, הערבויות החוזיות המפורשות, והמעורבות הפעילה של צוות OpenAI בעל סיווג ביטחוני.
מסגרת מקיפה זו מבטיחה כי ה"קווים האדומים" שצוינו – מניעת מעקב המוני פנים-מדינתי ושליטה בכלי נשק אוטונומיים – נאכפים באופן חזק. השפה החוזית המתייחסת במפורש לחוקים קיימים מבטיחה שגם אם מדיניות תשתנה בעתיד, השימוש במערכות של OpenAI יצטרך עדיין לעמוד בסטנדרטים המקוריים והמחמירים יותר. עמדה יזומה זו מדגישה את מחויבותה של OpenAI לפיתוח ופריסה של טכנולוגיות AI חזקות באופן שמעניק עדיפות לבטיחות, לאתיקה ולערכים דמוקרטיים, גם בהקשרי הביטחון הלאומי התובעניים ביותר.
שאלות נפוצות
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
הישארו מעודכנים
קבלו את חדשות ה-AI האחרונות לתיבת הדוא״ל.
