Code Velocity
امنیت هوش مصنوعی

توافق OpenAI با وزارت جنگ: تضمین حفاظت‌های ایمنی هوش مصنوعی

·7 دقیقه مطالعه·OpenAI·منبع اصلی
اشتراک‌گذاری
توافق OpenAI و وزارت جنگ با حفاظت‌های ایمنی هوش مصنوعی

OpenAI و وزارت جنگ، ایمنی هوش مصنوعی را با حفاظت‌های صریح تقویت می‌کنند

سان فرانسیسکو، کالیفرنیا – ۳ مارس ۲۰۲۶ – OpenAI از به روزرسانی قابل توجه توافق خود با وزارت جنگ (DoW) خبر داد که حفاظت‌های ایمنی سخت‌گیرانه حول استقرار سیستم‌های پیشرفته هوش مصنوعی در محیط‌های طبقه‌بندی‌شده را تقویت می‌کند. این همکاری برجسته، تعهد مشترک به استفاده مسئولانه از هوش مصنوعی، به ویژه در مورد کاربردهای حساس امنیت ملی را برجسته می‌سازد. توافق به روز شده که در ۲ مارس ۲۰۲۶ نهایی شد، صراحتاً نظارت داخلی بر شهروندان آمریکایی را ممنوع کرده و استفاده از هوش مصنوعی در سیستم‌های تسلیحات خودکار را محدود می‌کند و معیار جدیدی برای ادغام اخلاقی هوش مصنوعی در دفاع تعیین می‌کند.

هسته این توافق تقویت‌شده در صریح کردن آنچه قبلاً درک می‌شد، نهفته است و عدم ابهام در مورد محدودیت‌های اخلاقی فناوری هوش مصنوعی را تضمین می‌کند. OpenAI تاکید می‌کند که این چارچوب برای ارائه ابزارهای پیشرفته به ارتش آمریکا، ضمن رعایت دقیق اصول حریم خصوصی و ایمنی، طراحی شده است.

بازتعریف حفاظت‌ها برای استقرار هوش مصنوعی طبقه‌بندی‌شده

در یک اقدام پیشگیرانه برای رسیدگی به نگرانی‌های احتمالی، OpenAI و وزارت جنگ زبان اضافی را در توافق خود گنجانده‌اند که به طور خاص مرزهای استقرار هوش مصنوعی را روشن می‌کند. این بند جدید به طور قاطع بیان می‌کند که ابزارهای OpenAI برای نظارت داخلی بر شهروندان آمریکایی، از جمله از طریق کسب یا استفاده از اطلاعات شخصی به‌دست‌آمده تجاری، استفاده نخواهد شد. علاوه بر این، وزارت جنگ (DoW) تأیید کرده است که آژانس‌های اطلاعاتی آن، مانند NSA، از این توافق مستثنی هستند و برای هرگونه ارائه خدمات به شرایط کاملاً جدیدی نیاز خواهند داشت.

زبان به روز شده در این توافق جزئیات زیر را بیان می‌کند:

  • "مطابق با قوانین قابل اجرا، از جمله متمم چهارم قانون اساسی ایالات متحده، قانون امنیت ملی ۱۹۴۷، قانون FISA ۱۹۷۸، سیستم هوش مصنوعی به طور عمدی برای نظارت داخلی بر شهروندان و افراد آمریکایی استفاده نخواهد شد."
  • "برای رفع هرگونه ابهام، وزارتخانه این محدودیت را به معنای ممنوعیت ردیابی، نظارت یا پایش عمدی شهروندان یا افراد آمریکایی، از جمله از طریق تهیه یا استفاده از اطلاعات شخصی یا قابل شناسایی به‌دست‌آمده تجاری، می‌داند."

این رویکرد آینده‌نگر با هدف ایجاد مسیری روشن برای سایر آزمایشگاه‌های پیشرو هوش مصنوعی برای همکاری با وزارت جنگ، ترویج همکاری و در عین حال حفظ استانداردهای اخلاقی ثابت، است.

ستون‌های اخلاقی اصلی OpenAI: سه خط قرمز

OpenAI تحت سه "خط قرمز" اساسی عمل می‌کند که همکاری‌های آن را در حوزه‌های حساس مانند امنیت ملی هدایت می‌کند. این اصول، که عمدتاً توسط سایر موسسات تحقیقاتی پیشرو هوش مصنوعی نیز به اشتراک گذاشته می‌شوند، در مرکز توافق با وزارت جنگ قرار دارند:

  1. عدم نظارت گسترده داخلی: فناوری OpenAI برای نظارت گسترده بر شهروندان آمریکایی استفاده نخواهد شد.
  2. عدم وجود سیستم‌های تسلیحات خودکار: استفاده از این فناوری برای هدایت تسلیحات خودکار بدون کنترل انسانی ممنوع است.
  3. عدم تصمیم‌گیری خودکار با ریسک بالا: ابزارهای OpenAI برای تصمیم‌گیری‌های حیاتی خودکار (مانند سیستم‌های "اعتبار اجتماعی") که نیازمند نظارت انسانی هستند، به کار گرفته نخواهند شد.

OpenAI تاکید می‌کند که استراتژی چندلایه آن، حفاظت قوی‌تری در برابر استفاده‌های غیرقابل قبول در مقایسه با رویکردهایی که عمدتاً فقط بر سیاست‌های استفاده متکی هستند، فراهم می‌کند. این تأکید بر حفاظت‌های فنی و قراردادی سخت‌گیرانه، توافق آن را در چشم‌انداز در حال تحول هوش مصنوعی دفاعی متمایز می‌کند.

حفاظت چندلایه: معماری، قرارداد و تخصص انسانی

قدرت توافق OpenAI با وزارت جنگ در رویکرد جامع و چندلایه آن برای حفاظت نهفته است. این شامل موارد زیر است:

  1. معماری استقرار: این توافق استقرار فقط ابری را الزامی می‌کند و تضمین می‌کند که OpenAI کنترل کامل بر پشته ایمنی خود را حفظ کرده و از استقرار مدل‌های "بدون حفاظت" جلوگیری می‌کند. این معماری به طور ذاتی موارد استفاده مانند تسلیحات کشنده خودکار را که معمولاً به استقرار لبه‌ای نیاز دارند، محدود می‌کند. مکانیسم‌های تأیید مستقل، از جمله طبقه‌بندی‌کننده‌ها، برای اطمینان از عدم عبور از این خطوط قرمز وجود دارند.
  2. زبان قراردادی قوی: قرارداد به طور صریح استفاده‌های مجاز را جزئیات می‌دهد و رعایت "همه اهداف قانونی، مطابق با قوانین قابل اجرا، الزامات عملیاتی و پروتکل‌های ایمنی و نظارتی به خوبی تثبیت شده" را الزامی می‌کند. به طور خاص به قوانین ایالات متحده مانند متمم چهارم، قانون امنیت ملی ۱۹۴۷، قانون FISA ۱۹۷۸ و بخشنامه DoD 3000.09 اشاره می‌کند. نکته حیاتی این است که هدایت مستقل تسلیحات خودکار و نظارت بی‌قید و شرط بر اطلاعات خصوصی شهروندان آمریکایی را ممنوع می‌کند.
  3. مشارکت کارشناسان هوش مصنوعی: مهندسان و محققان ایمنی و همسویی OpenAI که دارای مجوز هستند، به صورت پیشرو مستقر شده و "در چرخه" نظارت قرار خواهند گرفت. این نظارت مستقیم انسانی لایه اضافی از اطمینان را فراهم می‌کند و به بهبود سیستم‌ها در طول زمان و تأیید فعالانه انطباق با شرایط سخت‌گیرانه توافق کمک می‌کند.

این رویکرد یکپارچه اطمینان می‌دهد که حفاظت‌های فنی، حقوقی و انسانی همگی برای جلوگیری از سوءاستفاده به صورت هماهنگ عمل می‌کنند.

دسته خط قرمزاقدامات حفاظتی OpenAI
نظارت گسترده داخلیممنوعیت صریح قراردادی، همسویی با متمم چهارم، FISA، قانون امنیت ملی؛ حذف NSA/آژانس‌های اطلاعاتی از دامنه؛ محدودیت‌های استقرار فقط ابری بر دسترسی به داده‌ها؛ تأیید توسط پرسنل OpenAI در چرخه نظارت.
سیستم‌های تسلیحات خودکاراستقرار فقط ابری (عدم استقرار لبه‌ای برای خودمختاری کشنده)؛ ممنوعیت صریح قراردادی علیه هدایت مستقل تسلیحات خودکار؛ پایبندی به بخشنامه DoD 3000.09 برای تأیید/اعتبارسنجی؛ پرسنل OpenAI در چرخه نظارت.
تصمیم‌گیری‌های خودکار با ریسک بالازبان قراردادی صریح که نیازمند تأیید انسانی برای تصمیمات با ریسک بالا است؛ OpenAI کنترل کامل بر پشته ایمنی خود را حفظ می‌کند و از مدل‌های "بدون حفاظت" جلوگیری می‌کند؛ پرسنل OpenAI در چرخه نظارت برای اطمینان از حفظ نظارت انسانی در جایی که تصمیمات حیاتی مطرح هستند.

رسیدگی به نگرانی‌ها و شکل‌دهی به همکاری‌های آینده هوش مصنوعی

OpenAI خطرات ذاتی هوش مصنوعی پیشرفته را تصدیق می‌کند و همکاری عمیق بین دولت و آزمایشگاه‌های هوش مصنوعی را برای حرکت در آینده ضروری می‌داند. همکاری با وزارت جنگ به ارتش آمریکا امکان دسترسی به ابزارهای پیشرفته را می‌دهد، در حالی که اطمینان حاصل می‌کند که این فناوری‌ها به طور مسئولانه مستقر می‌شوند.

"ما فکر می‌کنیم ارتش آمریکا کاملاً به مدل‌های هوش مصنوعی قوی برای پشتیبانی از مأموریت خود نیاز دارد، به ویژه در مواجهه با تهدیدات فزاینده از سوی دشمنان بالقوه که به طور فزاینده‌ای فناوری‌های هوش مصنوعی را در سیستم‌های خود ادغام می‌کنند،" OpenAI بیان کرد. این تعهد با امتناع تزلزل‌ناپذیر از به خطر انداختن حفاظت‌های فنی به خاطر عملکرد، متعادل شده است و تاکید می‌کند که یک رویکرد مسئولانه از اهمیت بالایی برخوردار است.

این توافق همچنین با هدف کاهش تنش‌ها و ترویج همکاری گسترده‌تر در جامعه هوش مصنوعی است. OpenAI درخواست کرده است که همین شرایط حفاظتی برای همه شرکت‌های هوش مصنوعی فراهم شود، با این امید که مشارکت‌های مسئولانه مشابهی را در سراسر صنعت تسهیل کند. این بخشی از استراتژی گسترده‌تر OpenAI است، همانطور که با همکاری مداوم مایکروسافت و تلاش‌ها در جهت توسعه هوش مصنوعی برای همه نشان داده شده است.

تعیین یک استاندارد جدید برای همکاری دفاعی در زمینه هوش مصنوعی

OpenAI معتقد است که توافق آن، استاندارد بالاتری برای استقرار هوش مصنوعی طبقه‌بندی‌شده در مقایسه با ترتیبات قبلی، از جمله مواردی که توسط آزمایشگاه‌های دیگر مانند Anthropic مورد بحث قرار گرفته‌اند، تعیین می‌کند. این اطمینان ناشی از حفاظت‌های اساسی تعبیه شده است: استقرار فقط ابری که یکپارچگی پشته ایمنی OpenAI را حفظ می‌کند، تضمین‌های صریح قراردادی و مشارکت فعال پرسنل دارای مجوز OpenAI.

این چارچوب جامع تضمین می‌کند که خطوط قرمز مشخص شده – جلوگیری از نظارت گسترده داخلی و کنترل تسلیحات خودکار – به طور قوی اجرا می‌شوند. زبان قراردادی که صراحتاً به قوانین موجود اشاره می‌کند، تضمین می‌نماید که حتی اگر سیاست‌ها در آینده تغییر کنند، استفاده از سیستم‌های OpenAI همچنان باید با استانداردهای سخت‌گیرانه اصلی مطابقت داشته باشد. این رویکرد پیشگیرانه بر تعهد OpenAI به توسعه و استقرار فناوری‌های قدرتمند هوش مصنوعی به گونه‌ای که ایمنی، اخلاق و ارزش‌های دموکراتیک را در اولویت قرار دهد، حتی در چالش‌برانگیزترین زمینه‌های امنیت ملی، تاکید می‌کند.

سوالات متداول

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

به‌روز بمانید

آخرین اخبار هوش مصنوعی را در ایمیل خود دریافت کنید.

اشتراک‌گذاری