OpenAI و وزارت جنگ، ایمنی هوش مصنوعی را با حفاظتهای صریح تقویت میکنند
سان فرانسیسکو، کالیفرنیا – ۳ مارس ۲۰۲۶ – OpenAI از به روزرسانی قابل توجه توافق خود با وزارت جنگ (DoW) خبر داد که حفاظتهای ایمنی سختگیرانه حول استقرار سیستمهای پیشرفته هوش مصنوعی در محیطهای طبقهبندیشده را تقویت میکند. این همکاری برجسته، تعهد مشترک به استفاده مسئولانه از هوش مصنوعی، به ویژه در مورد کاربردهای حساس امنیت ملی را برجسته میسازد. توافق به روز شده که در ۲ مارس ۲۰۲۶ نهایی شد، صراحتاً نظارت داخلی بر شهروندان آمریکایی را ممنوع کرده و استفاده از هوش مصنوعی در سیستمهای تسلیحات خودکار را محدود میکند و معیار جدیدی برای ادغام اخلاقی هوش مصنوعی در دفاع تعیین میکند.
هسته این توافق تقویتشده در صریح کردن آنچه قبلاً درک میشد، نهفته است و عدم ابهام در مورد محدودیتهای اخلاقی فناوری هوش مصنوعی را تضمین میکند. OpenAI تاکید میکند که این چارچوب برای ارائه ابزارهای پیشرفته به ارتش آمریکا، ضمن رعایت دقیق اصول حریم خصوصی و ایمنی، طراحی شده است.
بازتعریف حفاظتها برای استقرار هوش مصنوعی طبقهبندیشده
در یک اقدام پیشگیرانه برای رسیدگی به نگرانیهای احتمالی، OpenAI و وزارت جنگ زبان اضافی را در توافق خود گنجاندهاند که به طور خاص مرزهای استقرار هوش مصنوعی را روشن میکند. این بند جدید به طور قاطع بیان میکند که ابزارهای OpenAI برای نظارت داخلی بر شهروندان آمریکایی، از جمله از طریق کسب یا استفاده از اطلاعات شخصی بهدستآمده تجاری، استفاده نخواهد شد. علاوه بر این، وزارت جنگ (DoW) تأیید کرده است که آژانسهای اطلاعاتی آن، مانند NSA، از این توافق مستثنی هستند و برای هرگونه ارائه خدمات به شرایط کاملاً جدیدی نیاز خواهند داشت.
زبان به روز شده در این توافق جزئیات زیر را بیان میکند:
- "مطابق با قوانین قابل اجرا، از جمله متمم چهارم قانون اساسی ایالات متحده، قانون امنیت ملی ۱۹۴۷، قانون FISA ۱۹۷۸، سیستم هوش مصنوعی به طور عمدی برای نظارت داخلی بر شهروندان و افراد آمریکایی استفاده نخواهد شد."
- "برای رفع هرگونه ابهام، وزارتخانه این محدودیت را به معنای ممنوعیت ردیابی، نظارت یا پایش عمدی شهروندان یا افراد آمریکایی، از جمله از طریق تهیه یا استفاده از اطلاعات شخصی یا قابل شناسایی بهدستآمده تجاری، میداند."
این رویکرد آیندهنگر با هدف ایجاد مسیری روشن برای سایر آزمایشگاههای پیشرو هوش مصنوعی برای همکاری با وزارت جنگ، ترویج همکاری و در عین حال حفظ استانداردهای اخلاقی ثابت، است.
ستونهای اخلاقی اصلی OpenAI: سه خط قرمز
OpenAI تحت سه "خط قرمز" اساسی عمل میکند که همکاریهای آن را در حوزههای حساس مانند امنیت ملی هدایت میکند. این اصول، که عمدتاً توسط سایر موسسات تحقیقاتی پیشرو هوش مصنوعی نیز به اشتراک گذاشته میشوند، در مرکز توافق با وزارت جنگ قرار دارند:
- عدم نظارت گسترده داخلی: فناوری OpenAI برای نظارت گسترده بر شهروندان آمریکایی استفاده نخواهد شد.
- عدم وجود سیستمهای تسلیحات خودکار: استفاده از این فناوری برای هدایت تسلیحات خودکار بدون کنترل انسانی ممنوع است.
- عدم تصمیمگیری خودکار با ریسک بالا: ابزارهای OpenAI برای تصمیمگیریهای حیاتی خودکار (مانند سیستمهای "اعتبار اجتماعی") که نیازمند نظارت انسانی هستند، به کار گرفته نخواهند شد.
OpenAI تاکید میکند که استراتژی چندلایه آن، حفاظت قویتری در برابر استفادههای غیرقابل قبول در مقایسه با رویکردهایی که عمدتاً فقط بر سیاستهای استفاده متکی هستند، فراهم میکند. این تأکید بر حفاظتهای فنی و قراردادی سختگیرانه، توافق آن را در چشمانداز در حال تحول هوش مصنوعی دفاعی متمایز میکند.
حفاظت چندلایه: معماری، قرارداد و تخصص انسانی
قدرت توافق OpenAI با وزارت جنگ در رویکرد جامع و چندلایه آن برای حفاظت نهفته است. این شامل موارد زیر است:
- معماری استقرار: این توافق استقرار فقط ابری را الزامی میکند و تضمین میکند که OpenAI کنترل کامل بر پشته ایمنی خود را حفظ کرده و از استقرار مدلهای "بدون حفاظت" جلوگیری میکند. این معماری به طور ذاتی موارد استفاده مانند تسلیحات کشنده خودکار را که معمولاً به استقرار لبهای نیاز دارند، محدود میکند. مکانیسمهای تأیید مستقل، از جمله طبقهبندیکنندهها، برای اطمینان از عدم عبور از این خطوط قرمز وجود دارند.
- زبان قراردادی قوی: قرارداد به طور صریح استفادههای مجاز را جزئیات میدهد و رعایت "همه اهداف قانونی، مطابق با قوانین قابل اجرا، الزامات عملیاتی و پروتکلهای ایمنی و نظارتی به خوبی تثبیت شده" را الزامی میکند. به طور خاص به قوانین ایالات متحده مانند متمم چهارم، قانون امنیت ملی ۱۹۴۷، قانون FISA ۱۹۷۸ و بخشنامه DoD 3000.09 اشاره میکند. نکته حیاتی این است که هدایت مستقل تسلیحات خودکار و نظارت بیقید و شرط بر اطلاعات خصوصی شهروندان آمریکایی را ممنوع میکند.
- مشارکت کارشناسان هوش مصنوعی: مهندسان و محققان ایمنی و همسویی OpenAI که دارای مجوز هستند، به صورت پیشرو مستقر شده و "در چرخه" نظارت قرار خواهند گرفت. این نظارت مستقیم انسانی لایه اضافی از اطمینان را فراهم میکند و به بهبود سیستمها در طول زمان و تأیید فعالانه انطباق با شرایط سختگیرانه توافق کمک میکند.
این رویکرد یکپارچه اطمینان میدهد که حفاظتهای فنی، حقوقی و انسانی همگی برای جلوگیری از سوءاستفاده به صورت هماهنگ عمل میکنند.
| دسته خط قرمز | اقدامات حفاظتی OpenAI |
|---|---|
| نظارت گسترده داخلی | ممنوعیت صریح قراردادی، همسویی با متمم چهارم، FISA، قانون امنیت ملی؛ حذف NSA/آژانسهای اطلاعاتی از دامنه؛ محدودیتهای استقرار فقط ابری بر دسترسی به دادهها؛ تأیید توسط پرسنل OpenAI در چرخه نظارت. |
| سیستمهای تسلیحات خودکار | استقرار فقط ابری (عدم استقرار لبهای برای خودمختاری کشنده)؛ ممنوعیت صریح قراردادی علیه هدایت مستقل تسلیحات خودکار؛ پایبندی به بخشنامه DoD 3000.09 برای تأیید/اعتبارسنجی؛ پرسنل OpenAI در چرخه نظارت. |
| تصمیمگیریهای خودکار با ریسک بالا | زبان قراردادی صریح که نیازمند تأیید انسانی برای تصمیمات با ریسک بالا است؛ OpenAI کنترل کامل بر پشته ایمنی خود را حفظ میکند و از مدلهای "بدون حفاظت" جلوگیری میکند؛ پرسنل OpenAI در چرخه نظارت برای اطمینان از حفظ نظارت انسانی در جایی که تصمیمات حیاتی مطرح هستند. |
رسیدگی به نگرانیها و شکلدهی به همکاریهای آینده هوش مصنوعی
OpenAI خطرات ذاتی هوش مصنوعی پیشرفته را تصدیق میکند و همکاری عمیق بین دولت و آزمایشگاههای هوش مصنوعی را برای حرکت در آینده ضروری میداند. همکاری با وزارت جنگ به ارتش آمریکا امکان دسترسی به ابزارهای پیشرفته را میدهد، در حالی که اطمینان حاصل میکند که این فناوریها به طور مسئولانه مستقر میشوند.
"ما فکر میکنیم ارتش آمریکا کاملاً به مدلهای هوش مصنوعی قوی برای پشتیبانی از مأموریت خود نیاز دارد، به ویژه در مواجهه با تهدیدات فزاینده از سوی دشمنان بالقوه که به طور فزایندهای فناوریهای هوش مصنوعی را در سیستمهای خود ادغام میکنند،" OpenAI بیان کرد. این تعهد با امتناع تزلزلناپذیر از به خطر انداختن حفاظتهای فنی به خاطر عملکرد، متعادل شده است و تاکید میکند که یک رویکرد مسئولانه از اهمیت بالایی برخوردار است.
این توافق همچنین با هدف کاهش تنشها و ترویج همکاری گستردهتر در جامعه هوش مصنوعی است. OpenAI درخواست کرده است که همین شرایط حفاظتی برای همه شرکتهای هوش مصنوعی فراهم شود، با این امید که مشارکتهای مسئولانه مشابهی را در سراسر صنعت تسهیل کند. این بخشی از استراتژی گستردهتر OpenAI است، همانطور که با همکاری مداوم مایکروسافت و تلاشها در جهت توسعه هوش مصنوعی برای همه نشان داده شده است.
تعیین یک استاندارد جدید برای همکاری دفاعی در زمینه هوش مصنوعی
OpenAI معتقد است که توافق آن، استاندارد بالاتری برای استقرار هوش مصنوعی طبقهبندیشده در مقایسه با ترتیبات قبلی، از جمله مواردی که توسط آزمایشگاههای دیگر مانند Anthropic مورد بحث قرار گرفتهاند، تعیین میکند. این اطمینان ناشی از حفاظتهای اساسی تعبیه شده است: استقرار فقط ابری که یکپارچگی پشته ایمنی OpenAI را حفظ میکند، تضمینهای صریح قراردادی و مشارکت فعال پرسنل دارای مجوز OpenAI.
این چارچوب جامع تضمین میکند که خطوط قرمز مشخص شده – جلوگیری از نظارت گسترده داخلی و کنترل تسلیحات خودکار – به طور قوی اجرا میشوند. زبان قراردادی که صراحتاً به قوانین موجود اشاره میکند، تضمین مینماید که حتی اگر سیاستها در آینده تغییر کنند، استفاده از سیستمهای OpenAI همچنان باید با استانداردهای سختگیرانه اصلی مطابقت داشته باشد. این رویکرد پیشگیرانه بر تعهد OpenAI به توسعه و استقرار فناوریهای قدرتمند هوش مصنوعی به گونهای که ایمنی، اخلاق و ارزشهای دموکراتیک را در اولویت قرار دهد، حتی در چالشبرانگیزترین زمینههای امنیت ملی، تاکید میکند.
سوالات متداول
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
بهروز بمانید
آخرین اخبار هوش مصنوعی را در ایمیل خود دریافت کنید.
