OpenAI এবং যুদ্ধ বিভাগ সুস্পষ্ট রক্ষাকবচ সহ AI নিরাপত্তাকে শক্তিশালী করেছে
সান ফ্রান্সিসকো, CA – মার্চ ৩, ২০২৬ – OpenAI যুদ্ধ বিভাগ (DoW)-এর সাথে তাদের চুক্তিতে একটি গুরুত্বপূর্ণ আপডেটের ঘোষণা করেছে, যা শ্রেণীবদ্ধ পরিবেশে উন্নত AI সিস্টেম স্থাপনার চারপাশে কঠোর নিরাপত্তা রক্ষাকবচগুলিকে শক্তিশালী করেছে। এই যুগান্তকারী সহযোগিতা দায়িত্বশীল AI ব্যবহারের প্রতি একটি যৌথ অঙ্গীকারকে তুলে ধরে, বিশেষ করে সংবেদনশীল জাতীয় নিরাপত্তা অ্যাপ্লিকেশনগুলির ক্ষেত্রে। ২০২৬ সালের ২ মার্চ চূড়ান্ত হওয়া আপডেট করা চুক্তিটি সুস্পষ্টভাবে মার্কিন ব্যক্তিদের অভ্যন্তরীণ নজরদারি নিষিদ্ধ করে এবং স্বায়ত্তশাসিত অস্ত্র সিস্টেমে AI-এর ব্যবহার সীমাবদ্ধ করে, যা প্রতিরক্ষায় কৃত্রিম বুদ্ধিমত্তার নৈতিক একীকরণের জন্য একটি নতুন মান স্থাপন করে।
এই উন্নত চুক্তির মূল বিষয় হল যা পূর্বে বোঝা গিয়েছিল তাকে সুস্পষ্ট করে তোলা, AI প্রযুক্তির নৈতিক সীমাবদ্ধতা সম্পর্কে কোনো অস্পষ্টতা না রাখা। OpenAI জোর দেয় যে এই কাঠামোটি মার্কিন সামরিক বাহিনীকে অত্যাধুনিক সরঞ্জাম সরবরাহ করার জন্য ডিজাইন করা হয়েছে, পাশাপাশি কঠোরভাবে গোপনীয়তা এবং নিরাপত্তা নীতিগুলি বজায় রাখা হয়েছে।
শ্রেণীবদ্ধ AI স্থাপনার জন্য রক্ষাকবচগুলির পুনর্বিন্যাস
সম্ভাব্য উদ্বেগ মোকাবেলায় একটি সক্রিয় পদক্ষেপে, OpenAI এবং যুদ্ধ বিভাগ তাদের চুক্তিতে অতিরিক্ত ভাষা অন্তর্ভুক্ত করেছে, বিশেষ করে AI স্থাপনার সীমা স্পষ্ট করে। এই নতুন ধারাটি দ্ব্যর্থহীনভাবে বলে যে OpenAI-এর সরঞ্জামগুলি মার্কিন ব্যক্তিদের অভ্যন্তরীণ নজরদারির জন্য ব্যবহার করা হবে না, যার মধ্যে বাণিজ্যিকভাবে প্রাপ্ত ব্যক্তিগত তথ্যের অর্জন বা ব্যবহার অন্তর্ভুক্ত। উপরন্তু, DoW নিশ্চিত করেছে যে NSA-এর মতো এর গোয়েন্দা সংস্থাগুলি এই চুক্তি থেকে বাদ পড়েছে এবং যেকোনো পরিষেবা বিধানের জন্য সম্পূর্ণরূপে নতুন শর্তাবলীর প্রয়োজন হবে।
চুক্তির আপডেট করা ভাষার বিস্তারিত:
- "প্রযোজ্য আইনগুলির সাথে সঙ্গতি রেখে, যার মধ্যে মার্কিন যুক্তরাষ্ট্রের সংবিধানের চতুর্থ সংশোধনী, ১৯৪৮ সালের জাতীয় নিরাপত্তা আইন, ১৯৭৮ সালের FISA আইন অন্তর্ভুক্ত, AI সিস্টেমটি মার্কিন ব্যক্তি এবং নাগরিকদের অভ্যন্তরীণ নজরদারির জন্য ইচ্ছাকৃতভাবে ব্যবহার করা হবে না।"
- "সন্দেহ এড়ানোর জন্য, বিভাগ এই সীমাবদ্ধতাকে মার্কিন ব্যক্তি বা নাগরিকদের ইচ্ছাকৃত ট্র্যাকিং, নজরদারি বা পর্যবেক্ষণ নিষিদ্ধ হিসাবে বোঝে, যার মধ্যে বাণিজ্যিকভাবে অর্জিত ব্যক্তিগত বা শনাক্তযোগ্য তথ্যের সংগ্রহ বা ব্যবহার অন্তর্ভুক্ত।"
এই দূরদর্শী পদ্ধতির লক্ষ্য হল অন্যান্য অগ্রগামী AI ল্যাবগুলির জন্য যুদ্ধ বিভাগের সাথে যুক্ত হওয়ার একটি স্পষ্ট পথ তৈরি করা, সহযোগিতা বৃদ্ধি করা এবং অবিচল নৈতিক মান বজায় রাখা।
OpenAI-এর মূল নৈতিক স্তম্ভ: তিনটি রেড লাইন
OpenAI তিনটি মৌলিক "রেড লাইন"-এর অধীনে কাজ করে যা জাতীয় নিরাপত্তার মতো সংবেদনশীল ডোমেনে এর সহযোগিতা পরিচালনা করে। এই নীতিগুলি, যা অন্যান্য শীর্ষস্থানীয় AI গবেষণা প্রতিষ্ঠানগুলিও মূলত অনুসরণ করে, যুদ্ধ বিভাগের সাথে চুক্তির কেন্দ্রে রয়েছে:
- ব্যাপক অভ্যন্তরীণ নজরদারি নয়: OpenAI প্রযুক্তি মার্কিন নাগরিকদের ব্যাপক পর্যবেক্ষণের জন্য ব্যবহার করা হবে না।
- কোনো স্বায়ত্তশাসিত অস্ত্র ব্যবস্থা নয়: এই প্রযুক্তি মানব নিয়ন্ত্রণ ব্যতীত স্বায়ত্তশাসিত অস্ত্র পরিচালনা করতে নিষিদ্ধ।
- কোনো উচ্চ-ঝুঁকির স্বয়ংক্রিয় সিদ্ধান্ত নয়: OpenAI সরঞ্জামগুলি এমন গুরুত্বপূর্ণ স্বয়ংক্রিয় সিদ্ধান্তগুলির জন্য (যেমন, "সোশ্যাল ক্রেডিট" সিস্টেম) ব্যবহার করা হবে না যার জন্য মানুষের তত্ত্বাবধান প্রয়োজন।
OpenAI জোর দিয়ে বলে যে এর বহু-স্তরের কৌশল কেবল ব্যবহারের নীতির উপর নির্ভর করে এমন পদ্ধতির তুলনায় অগ্রহণযোগ্য ব্যবহারের বিরুদ্ধে আরও শক্তিশালী সুরক্ষা প্রদান করে। কঠোর প্রযুক্তিগত এবং চুক্তিভিত্তিক সুরক্ষামূলক ব্যবস্থার উপর এই জোর প্রতিরক্ষা AI-এর ক্রমবর্ধমান পরিস্থিতিতে এর চুক্তিকে স্বতন্ত্র করে তোলে।
বহু-স্তরের সুরক্ষা: স্থাপত্য, চুক্তি এবং মানব দক্ষতা
যুদ্ধ বিভাগের সাথে OpenAI-এর চুক্তির শক্তি তার সুরক্ষার জন্য ব্যাপক, বহু-স্তরের পদ্ধতির মধ্যে নিহিত। এর মধ্যে রয়েছে:
- স্থাপনার স্থাপত্য: চুক্তিটি শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনার আদেশ দেয়, যা নিশ্চিত করে যে OpenAI তার নিরাপত্তা স্ট্যাকের উপর সম্পূর্ণ বিচক্ষণতা বজায় রাখে এবং "গার্ডরেল অফ" মডেলগুলির স্থাপনা প্রতিরোধ করে। এই স্থাপত্য সহজাতভাবে স্বায়ত্তশাসিত প্রাণঘাতী অস্ত্রের মতো ব্যবহারের ক্ষেত্রগুলিকে সীমাবদ্ধ করে, যার জন্য সাধারণত এজ স্থাপনার প্রয়োজন হয়। শ্রেণীভুক্তকারী সহ স্বাধীন যাচাইকরণ প্রক্রিয়াগুলি বিদ্যমান রয়েছে যাতে এই রেড লাইনগুলি অতিক্রম না করা হয়।
- শক্তিশালী চুক্তিভিত্তিক ভাষা: চুক্তিটি সুস্পষ্টভাবে অনুমোদিত ব্যবহারগুলি বিস্তারিতভাবে বর্ণনা করে, যা "সকল বৈধ উদ্দেশ্যে, প্রযোজ্য আইন, অপারেশনাল প্রয়োজনীয়তা এবং সুপ্রতিষ্ঠিত নিরাপত্তা ও তত্ত্বাবধান প্রোটোকল" মেনে চলার প্রয়োজন। এটি বিশেষ করে মার্কিন আইনগুলি যেমন চতুর্থ সংশোধনী, ১৯৪৮ সালের জাতীয় নিরাপত্তা আইন, ১৯৭৮ সালের FISA আইন এবং DoD নির্দেশিকা 3000.09 উল্লেখ করে। গুরুত্বপূর্ণভাবে, এটি স্বায়ত্তশাসিত অস্ত্রগুলির স্বাধীন পরিচালনা এবং মার্কিন ব্যক্তিদের ব্যক্তিগত তথ্যের অবাধ পর্যবেক্ষণ নিষিদ্ধ করে।
- AI বিশেষজ্ঞদের জড়িত থাকা: অনুমোদিত OpenAI প্রকৌশলী এবং নিরাপত্তা ও অ্যালাইনমেন্ট গবেষকরা সম্মুখ-মোতায়েন করা হবে এবং "প্রক্রিয়ার মধ্যে" থাকবে। এই সরাসরি মানব তত্ত্বাবধান নিশ্চিততার একটি অতিরিক্ত স্তর সরবরাহ করে, সময়ের সাথে সাথে সিস্টেমগুলিকে উন্নত করতে সাহায্য করে এবং চুক্তির কঠোর শর্তাবলী মেনে চলা হচ্ছে কিনা তা সক্রিয়ভাবে যাচাই করে।
এই সমন্বিত পদ্ধতি নিশ্চিত করে যে প্রযুক্তিগত, আইনি এবং মানব সুরক্ষামূলক ব্যবস্থাগুলি অপব্যবহার প্রতিরোধে সম্মিলিতভাবে কাজ করছে।
| রেড লাইন বিভাগ | OpenAI-এর সুরক্ষামূলক ব্যবস্থা |
|---|---|
| ব্যাপক অভ্যন্তরীণ নজরদারি | সুস্পষ্ট চুক্তিভিত্তিক নিষেধাজ্ঞা, চতুর্থ সংশোধনী, FISA, জাতীয় নিরাপত্তা আইনের সাথে সঙ্গতি; NSA/গোয়েন্দা সংস্থাগুলিকে আওতা থেকে বাদ দেওয়া; ডেটা অ্যাক্সেসের উপর শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনার সীমা; প্রক্রিয়ার মধ্যে OpenAI কর্মীদের দ্বারা যাচাইকরণ। |
| স্বায়ত্তশাসিত অস্ত্র ব্যবস্থা | শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনা (প্রাণঘাতী স্বায়ত্তশাসনের জন্য কোনো এজ স্থাপনা নয়); স্বায়ত্তশাসিত অস্ত্রের স্বাধীন পরিচালনার বিরুদ্ধে সুস্পষ্ট চুক্তিভিত্তিক নিষেধাজ্ঞা; যাচাইকরণ/বৈধতার জন্য DoD নির্দেশিকা 3000.09 মেনে চলা; তত্ত্বাবধানের জন্য প্রক্রিয়ার মধ্যে OpenAI কর্মী। |
| উচ্চ-ঝুঁকির স্বয়ংক্রিয় সিদ্ধান্ত | উচ্চ-ঝুঁকির সিদ্ধান্তগুলির জন্য মানুষের অনুমোদনের প্রয়োজন হয় এমন সুস্পষ্ট চুক্তিভিত্তিক ভাষা; OpenAI তার নিরাপত্তা স্ট্যাকের উপর সম্পূর্ণ নিয়ন্ত্রণ বজায় রাখে, "গার্ডরেল অফ" মডেলগুলি প্রতিরোধ করে; গুরুত্বপূর্ণ সিদ্ধান্ত জড়িত থাকলে মানব তত্ত্বাবধান বজায় আছে তা নিশ্চিত করার জন্য প্রক্রিয়ার মধ্যে OpenAI কর্মী। |
উদ্বেগ মোকাবেলা এবং ভবিষ্যতের AI সহযোগিতা গড়ে তোলা
OpenAI উন্নত AI-এর সহজাত ঝুঁকিগুলি স্বীকার করে এবং ভবিষ্যতে পথ চলার জন্য সরকার ও AI ল্যাবগুলির মধ্যে গভীর সহযোগিতা অপরিহার্য বলে মনে করে। যুদ্ধ বিভাগের সাথে যুক্ত হওয়া মার্কিন সামরিক বাহিনীকে অত্যাধুনিক সরঞ্জামগুলিতে প্রবেশাধিকার দেয়, একই সাথে নিশ্চিত করে যে এই প্রযুক্তিগুলি দায়িত্বশীলভাবে স্থাপন করা হয়েছে।
"আমরা মনে করি মার্কিন সামরিক বাহিনীর তাদের মিশনকে সমর্থন করার জন্য শক্তিশালী AI মডেলগুলির একেবারে প্রয়োজন, বিশেষ করে সম্ভাব্য প্রতিপক্ষদের কাছ থেকে ক্রমবর্ধমান হুমকির মুখে যারা তাদের সিস্টেমে AI প্রযুক্তিগুলিকে ক্রমবর্ধমানভাবে একীভূত করছে," OpenAI জানিয়েছে। এই প্রতিশ্রুতি কর্মক্ষমতার জন্য প্রযুক্তিগত সুরক্ষামূলক ব্যবস্থাকে আপস করার জন্য অবিচল প্রত্যাখ্যানের সাথে ভারসাম্যপূর্ণ, জোর দিয়ে বলা হয়েছে যে একটি দায়িত্বশীল পদ্ধতি সর্বাগ্রে।"
চুক্তিটির লক্ষ্য হল উত্তেজনা হ্রাস করা এবং AI সম্প্রদায়ের মধ্যে ব্যাপক সহযোগিতা গড়ে তোলা। OpenAI অনুরোধ করেছে যে একই সুরক্ষামূলক শর্তাবলী সমস্ত AI কোম্পানিগুলির জন্য উপলব্ধ করা হোক, শিল্প জুড়ে অনুরূপ দায়িত্বশীল অংশীদারিত্ব সহজ করার আশায়। এটি OpenAI-এর বৃহত্তর কৌশলের অংশ, যা এর Microsoft-এর সাথে চলমান অংশীদারিত্ব এবং সবার জন্য AI স্কেলিং-এর প্রচেষ্টার মাধ্যমে প্রদর্শিত হয়।
প্রতিরক্ষা AI জড়িত থাকার জন্য একটি নতুন মান নির্ধারণ
OpenAI বিশ্বাস করে যে তাদের চুক্তিটি শ্রেণীবদ্ধ AI স্থাপনার জন্য একটি উচ্চতর মান নির্ধারণ করে, Anthropic-এর মতো অন্যান্য ল্যাব দ্বারা আলোচিত পূর্ববর্তী ব্যবস্থার তুলনায়। এই আস্থা অন্তর্নিহিত মৌলিক সুরক্ষাগুলি থেকে উদ্ভূত হয়: শুধুমাত্র ক্লাউড-ভিত্তিক স্থাপনা যা OpenAI-এর নিরাপত্তা স্ট্যাকের অখণ্ডতা বজায় রাখে, সুস্পষ্ট চুক্তিভিত্তিক নিশ্চয়তা এবং অনুমোদিত OpenAI কর্মীদের সক্রিয় জড়িত থাকা।
এই ব্যাপক কাঠামো নিশ্চিত করে যে নির্দিষ্ট রেড লাইনগুলি — ব্যাপক অভ্যন্তরীণ নজরদারি এবং স্বায়ত্তশাসিত অস্ত্র নিয়ন্ত্রণ প্রতিরোধ করা — দৃঢ়ভাবে প্রয়োগ করা হয়। বিদ্যমান আইনগুলিকে সুস্পষ্টভাবে উল্লেখ করে চুক্তিভিত্তিক ভাষা নিশ্চিত করে যে এমনকি ভবিষ্যতে নীতি পরিবর্তন হলেও, OpenAI-এর সিস্টেমগুলির ব্যবহার অবশ্যই মূল, কঠোর মানদণ্ড মেনে চলতে হবে। এই সক্রিয় অবস্থান OpenAI-এর প্রতিশ্রুতিকে তুলে ধরে যে, এমনকি সবচেয়ে চাহিদাপূর্ণ জাতীয় নিরাপত্তা পরিস্থিতিতেও, সুরক্ষা, নীতিশাস্ত্র এবং গণতান্ত্রিক মূল্যবোধকে অগ্রাধিকার দিয়ে শক্তিশালী AI প্রযুক্তি তৈরি ও স্থাপন করা।
সচরাচর জিজ্ঞাসিত প্রশ্ন
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
আপডেট থাকুন
সর্বশেষ AI খবর ইনবক্সে পান।
