Code Velocity
AI নিরাপত্তা

OpenAI যুদ্ধ বিভাগের চুক্তি: AI সুরক্ষা রক্ষাকবচ নিশ্চিতকরণ

·7 মিনিট পড়া·OpenAI·মূল উৎস
শেয়ার
AI সুরক্ষা রক্ষাকবচ সহ OpenAI এবং যুদ্ধ বিভাগের চুক্তি

OpenAI এবং যুদ্ধ বিভাগ সুস্পষ্ট রক্ষাকবচ সহ AI নিরাপত্তাকে শক্তিশালী করেছে

সান ফ্রান্সিসকো, CA – মার্চ ৩, ২০২৬ – OpenAI যুদ্ধ বিভাগ (DoW)-এর সাথে তাদের চুক্তিতে একটি গুরুত্বপূর্ণ আপডেটের ঘোষণা করেছে, যা শ্রেণীবদ্ধ পরিবেশে উন্নত AI সিস্টেম স্থাপনার চারপাশে কঠোর নিরাপত্তা রক্ষাকবচগুলিকে শক্তিশালী করেছে। এই যুগান্তকারী সহযোগিতা দায়িত্বশীল AI ব্যবহারের প্রতি একটি যৌথ অঙ্গীকারকে তুলে ধরে, বিশেষ করে সংবেদনশীল জাতীয় নিরাপত্তা অ্যাপ্লিকেশনগুলির ক্ষেত্রে। ২০২৬ সালের ২ মার্চ চূড়ান্ত হওয়া আপডেট করা চুক্তিটি সুস্পষ্টভাবে মার্কিন ব্যক্তিদের অভ্যন্তরীণ নজরদারি নিষিদ্ধ করে এবং স্বায়ত্তশাসিত অস্ত্র সিস্টেমে AI-এর ব্যবহার সীমাবদ্ধ করে, যা প্রতিরক্ষায় কৃত্রিম বুদ্ধিমত্তার নৈতিক একীকরণের জন্য একটি নতুন মান স্থাপন করে।

এই উন্নত চুক্তির মূল বিষয় হল যা পূর্বে বোঝা গিয়েছিল তাকে সুস্পষ্ট করে তোলা, AI প্রযুক্তির নৈতিক সীমাবদ্ধতা সম্পর্কে কোনো অস্পষ্টতা না রাখা। OpenAI জোর দেয় যে এই কাঠামোটি মার্কিন সামরিক বাহিনীকে অত্যাধুনিক সরঞ্জাম সরবরাহ করার জন্য ডিজাইন করা হয়েছে, পাশাপাশি কঠোরভাবে গোপনীয়তা এবং নিরাপত্তা নীতিগুলি বজায় রাখা হয়েছে।

শ্রেণীবদ্ধ AI স্থাপনার জন্য রক্ষাকবচগুলির পুনর্বিন্যাস

সম্ভাব্য উদ্বেগ মোকাবেলায় একটি সক্রিয় পদক্ষেপে, OpenAI এবং যুদ্ধ বিভাগ তাদের চুক্তিতে অতিরিক্ত ভাষা অন্তর্ভুক্ত করেছে, বিশেষ করে AI স্থাপনার সীমা স্পষ্ট করে। এই নতুন ধারাটি দ্ব্যর্থহীনভাবে বলে যে OpenAI-এর সরঞ্জামগুলি মার্কিন ব্যক্তিদের অভ্যন্তরীণ নজরদারির জন্য ব্যবহার করা হবে না, যার মধ্যে বাণিজ্যিকভাবে প্রাপ্ত ব্যক্তিগত তথ্যের অর্জন বা ব্যবহার অন্তর্ভুক্ত। উপরন্তু, DoW নিশ্চিত করেছে যে NSA-এর মতো এর গোয়েন্দা সংস্থাগুলি এই চুক্তি থেকে বাদ পড়েছে এবং যেকোনো পরিষেবা বিধানের জন্য সম্পূর্ণরূপে নতুন শর্তাবলীর প্রয়োজন হবে।

চুক্তির আপডেট করা ভাষার বিস্তারিত:

  • "প্রযোজ্য আইনগুলির সাথে সঙ্গতি রেখে, যার মধ্যে মার্কিন যুক্তরাষ্ট্রের সংবিধানের চতুর্থ সংশোধনী, ১৯৪৮ সালের জাতীয় নিরাপত্তা আইন, ১৯৭৮ সালের FISA আইন অন্তর্ভুক্ত, AI সিস্টেমটি মার্কিন ব্যক্তি এবং নাগরিকদের অভ্যন্তরীণ নজরদারির জন্য ইচ্ছাকৃতভাবে ব্যবহার করা হবে না।"
  • "সন্দেহ এড়ানোর জন্য, বিভাগ এই সীমাবদ্ধতাকে মার্কিন ব্যক্তি বা নাগরিকদের ইচ্ছাকৃত ট্র্যাকিং, নজরদারি বা পর্যবেক্ষণ নিষিদ্ধ হিসাবে বোঝে, যার মধ্যে বাণিজ্যিকভাবে অর্জিত ব্যক্তিগত বা শনাক্তযোগ্য তথ্যের সংগ্রহ বা ব্যবহার অন্তর্ভুক্ত।"

এই দূরদর্শী পদ্ধতির লক্ষ্য হল অন্যান্য অগ্রগামী AI ল্যাবগুলির জন্য যুদ্ধ বিভাগের সাথে যুক্ত হওয়ার একটি স্পষ্ট পথ তৈরি করা, সহযোগিতা বৃদ্ধি করা এবং অবিচল নৈতিক মান বজায় রাখা।

OpenAI-এর মূল নৈতিক স্তম্ভ: তিনটি রেড লাইন

OpenAI তিনটি মৌলিক "রেড লাইন"-এর অধীনে কাজ করে যা জাতীয় নিরাপত্তার মতো সংবেদনশীল ডোমেনে এর সহযোগিতা পরিচালনা করে। এই নীতিগুলি, যা অন্যান্য শীর্ষস্থানীয় AI গবেষণা প্রতিষ্ঠানগুলিও মূলত অনুসরণ করে, যুদ্ধ বিভাগের সাথে চুক্তির কেন্দ্রে রয়েছে:

  1. ব্যাপক অভ্যন্তরীণ নজরদারি নয়: OpenAI প্রযুক্তি মার্কিন নাগরিকদের ব্যাপক পর্যবেক্ষণের জন্য ব্যবহার করা হবে না।
  2. কোনো স্বায়ত্তশাসিত অস্ত্র ব্যবস্থা নয়: এই প্রযুক্তি মানব নিয়ন্ত্রণ ব্যতীত স্বায়ত্তশাসিত অস্ত্র পরিচালনা করতে নিষিদ্ধ।
  3. কোনো উচ্চ-ঝুঁকির স্বয়ংক্রিয় সিদ্ধান্ত নয়: OpenAI সরঞ্জামগুলি এমন গুরুত্বপূর্ণ স্বয়ংক্রিয় সিদ্ধান্তগুলির জন্য (যেমন, "সোশ্যাল ক্রেডিট" সিস্টেম) ব্যবহার করা হবে না যার জন্য মানুষের তত্ত্বাবধান প্রয়োজন।

OpenAI জোর দিয়ে বলে যে এর বহু-স্তরের কৌশল কেবল ব্যবহারের নীতির উপর নির্ভর করে এমন পদ্ধতির তুলনায় অগ্রহণযোগ্য ব্যবহারের বিরুদ্ধে আরও শক্তিশালী সুরক্ষা প্রদান করে। কঠোর প্রযুক্তিগত এবং চুক্তিভিত্তিক সুরক্ষামূলক ব্যবস্থার উপর এই জোর প্রতিরক্ষা AI-এর ক্রমবর্ধমান পরিস্থিতিতে এর চুক্তিকে স্বতন্ত্র করে তোলে।

বহু-স্তরের সুরক্ষা: স্থাপত্য, চুক্তি এবং মানব দক্ষতা

যুদ্ধ বিভাগের সাথে OpenAI-এর চুক্তির শক্তি তার সুরক্ষার জন্য ব্যাপক, বহু-স্তরের পদ্ধতির মধ্যে নিহিত। এর মধ্যে রয়েছে:

  1. স্থাপনার স্থাপত্য: চুক্তিটি শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনার আদেশ দেয়, যা নিশ্চিত করে যে OpenAI তার নিরাপত্তা স্ট্যাকের উপর সম্পূর্ণ বিচক্ষণতা বজায় রাখে এবং "গার্ডরেল অফ" মডেলগুলির স্থাপনা প্রতিরোধ করে। এই স্থাপত্য সহজাতভাবে স্বায়ত্তশাসিত প্রাণঘাতী অস্ত্রের মতো ব্যবহারের ক্ষেত্রগুলিকে সীমাবদ্ধ করে, যার জন্য সাধারণত এজ স্থাপনার প্রয়োজন হয়। শ্রেণীভুক্তকারী সহ স্বাধীন যাচাইকরণ প্রক্রিয়াগুলি বিদ্যমান রয়েছে যাতে এই রেড লাইনগুলি অতিক্রম না করা হয়।
  2. শক্তিশালী চুক্তিভিত্তিক ভাষা: চুক্তিটি সুস্পষ্টভাবে অনুমোদিত ব্যবহারগুলি বিস্তারিতভাবে বর্ণনা করে, যা "সকল বৈধ উদ্দেশ্যে, প্রযোজ্য আইন, অপারেশনাল প্রয়োজনীয়তা এবং সুপ্রতিষ্ঠিত নিরাপত্তা ও তত্ত্বাবধান প্রোটোকল" মেনে চলার প্রয়োজন। এটি বিশেষ করে মার্কিন আইনগুলি যেমন চতুর্থ সংশোধনী, ১৯৪৮ সালের জাতীয় নিরাপত্তা আইন, ১৯৭৮ সালের FISA আইন এবং DoD নির্দেশিকা 3000.09 উল্লেখ করে। গুরুত্বপূর্ণভাবে, এটি স্বায়ত্তশাসিত অস্ত্রগুলির স্বাধীন পরিচালনা এবং মার্কিন ব্যক্তিদের ব্যক্তিগত তথ্যের অবাধ পর্যবেক্ষণ নিষিদ্ধ করে।
  3. AI বিশেষজ্ঞদের জড়িত থাকা: অনুমোদিত OpenAI প্রকৌশলী এবং নিরাপত্তা ও অ্যালাইনমেন্ট গবেষকরা সম্মুখ-মোতায়েন করা হবে এবং "প্রক্রিয়ার মধ্যে" থাকবে। এই সরাসরি মানব তত্ত্বাবধান নিশ্চিততার একটি অতিরিক্ত স্তর সরবরাহ করে, সময়ের সাথে সাথে সিস্টেমগুলিকে উন্নত করতে সাহায্য করে এবং চুক্তির কঠোর শর্তাবলী মেনে চলা হচ্ছে কিনা তা সক্রিয়ভাবে যাচাই করে।

এই সমন্বিত পদ্ধতি নিশ্চিত করে যে প্রযুক্তিগত, আইনি এবং মানব সুরক্ষামূলক ব্যবস্থাগুলি অপব্যবহার প্রতিরোধে সম্মিলিতভাবে কাজ করছে।

রেড লাইন বিভাগOpenAI-এর সুরক্ষামূলক ব্যবস্থা
ব্যাপক অভ্যন্তরীণ নজরদারিসুস্পষ্ট চুক্তিভিত্তিক নিষেধাজ্ঞা, চতুর্থ সংশোধনী, FISA, জাতীয় নিরাপত্তা আইনের সাথে সঙ্গতি; NSA/গোয়েন্দা সংস্থাগুলিকে আওতা থেকে বাদ দেওয়া; ডেটা অ্যাক্সেসের উপর শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনার সীমা; প্রক্রিয়ার মধ্যে OpenAI কর্মীদের দ্বারা যাচাইকরণ।
স্বায়ত্তশাসিত অস্ত্র ব্যবস্থাশুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনা (প্রাণঘাতী স্বায়ত্তশাসনের জন্য কোনো এজ স্থাপনা নয়); স্বায়ত্তশাসিত অস্ত্রের স্বাধীন পরিচালনার বিরুদ্ধে সুস্পষ্ট চুক্তিভিত্তিক নিষেধাজ্ঞা; যাচাইকরণ/বৈধতার জন্য DoD নির্দেশিকা 3000.09 মেনে চলা; তত্ত্বাবধানের জন্য প্রক্রিয়ার মধ্যে OpenAI কর্মী।
উচ্চ-ঝুঁকির স্বয়ংক্রিয় সিদ্ধান্তউচ্চ-ঝুঁকির সিদ্ধান্তগুলির জন্য মানুষের অনুমোদনের প্রয়োজন হয় এমন সুস্পষ্ট চুক্তিভিত্তিক ভাষা; OpenAI তার নিরাপত্তা স্ট্যাকের উপর সম্পূর্ণ নিয়ন্ত্রণ বজায় রাখে, "গার্ডরেল অফ" মডেলগুলি প্রতিরোধ করে; গুরুত্বপূর্ণ সিদ্ধান্ত জড়িত থাকলে মানব তত্ত্বাবধান বজায় আছে তা নিশ্চিত করার জন্য প্রক্রিয়ার মধ্যে OpenAI কর্মী।

উদ্বেগ মোকাবেলা এবং ভবিষ্যতের AI সহযোগিতা গড়ে তোলা

OpenAI উন্নত AI-এর সহজাত ঝুঁকিগুলি স্বীকার করে এবং ভবিষ্যতে পথ চলার জন্য সরকার ও AI ল্যাবগুলির মধ্যে গভীর সহযোগিতা অপরিহার্য বলে মনে করে। যুদ্ধ বিভাগের সাথে যুক্ত হওয়া মার্কিন সামরিক বাহিনীকে অত্যাধুনিক সরঞ্জামগুলিতে প্রবেশাধিকার দেয়, একই সাথে নিশ্চিত করে যে এই প্রযুক্তিগুলি দায়িত্বশীলভাবে স্থাপন করা হয়েছে।

"আমরা মনে করি মার্কিন সামরিক বাহিনীর তাদের মিশনকে সমর্থন করার জন্য শক্তিশালী AI মডেলগুলির একেবারে প্রয়োজন, বিশেষ করে সম্ভাব্য প্রতিপক্ষদের কাছ থেকে ক্রমবর্ধমান হুমকির মুখে যারা তাদের সিস্টেমে AI প্রযুক্তিগুলিকে ক্রমবর্ধমানভাবে একীভূত করছে," OpenAI জানিয়েছে। এই প্রতিশ্রুতি কর্মক্ষমতার জন্য প্রযুক্তিগত সুরক্ষামূলক ব্যবস্থাকে আপস করার জন্য অবিচল প্রত্যাখ্যানের সাথে ভারসাম্যপূর্ণ, জোর দিয়ে বলা হয়েছে যে একটি দায়িত্বশীল পদ্ধতি সর্বাগ্রে।"

চুক্তিটির লক্ষ্য হল উত্তেজনা হ্রাস করা এবং AI সম্প্রদায়ের মধ্যে ব্যাপক সহযোগিতা গড়ে তোলা। OpenAI অনুরোধ করেছে যে একই সুরক্ষামূলক শর্তাবলী সমস্ত AI কোম্পানিগুলির জন্য উপলব্ধ করা হোক, শিল্প জুড়ে অনুরূপ দায়িত্বশীল অংশীদারিত্ব সহজ করার আশায়। এটি OpenAI-এর বৃহত্তর কৌশলের অংশ, যা এর Microsoft-এর সাথে চলমান অংশীদারিত্ব এবং সবার জন্য AI স্কেলিং-এর প্রচেষ্টার মাধ্যমে প্রদর্শিত হয়।

প্রতিরক্ষা AI জড়িত থাকার জন্য একটি নতুন মান নির্ধারণ

OpenAI বিশ্বাস করে যে তাদের চুক্তিটি শ্রেণীবদ্ধ AI স্থাপনার জন্য একটি উচ্চতর মান নির্ধারণ করে, Anthropic-এর মতো অন্যান্য ল্যাব দ্বারা আলোচিত পূর্ববর্তী ব্যবস্থার তুলনায়। এই আস্থা অন্তর্নিহিত মৌলিক সুরক্ষাগুলি থেকে উদ্ভূত হয়: শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনা যা OpenAI-এর নিরাপত্তা স্ট্যাকের অখণ্ডতা বজায় রাখে, সুস্পষ্ট চুক্তিভিত্তিক নিশ্চয়তা এবং অনুমোদিত OpenAI কর্মীদের সক্রিয় জড়িত থাকা।

এই ব্যাপক কাঠামো নিশ্চিত করে যে নির্দিষ্ট রেড লাইনগুলি — ব্যাপক অভ্যন্তরীণ নজরদারি এবং স্বায়ত্তশাসিত অস্ত্র নিয়ন্ত্রণ প্রতিরোধ করা — দৃঢ়ভাবে প্রয়োগ করা হয়। বিদ্যমান আইনগুলিকে সুস্পষ্টভাবে উল্লেখ করে চুক্তিভিত্তিক ভাষা নিশ্চিত করে যে এমনকি ভবিষ্যতে নীতি পরিবর্তন হলেও, OpenAI-এর সিস্টেমগুলির ব্যবহার অবশ্যই মূল, কঠোর মানদণ্ড মেনে চলতে হবে। এই সক্রিয় অবস্থান OpenAI-এর প্রতিশ্রুতিকে তুলে ধরে যে, এমনকি সবচেয়ে চাহিদাপূর্ণ জাতীয় নিরাপত্তা পরিস্থিতিতেও, সুরক্ষা, নীতিশাস্ত্র এবং গণতান্ত্রিক মূল্যবোধকে অগ্রাধিকার দিয়ে শক্তিশালী AI প্রযুক্তি তৈরি ও স্থাপন করা।

সচরাচর জিজ্ঞাসিত প্রশ্ন

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

আপডেট থাকুন

সর্বশেষ AI খবর ইনবক্সে পান।

শেয়ার