Anthropic Claude-এর ভোক্তা শর্তাবলী এবং গোপনীয়তা নীতির গুরুত্বপূর্ণ আপডেট নিয়ে এসেছে
Anthropic, একটি শীর্ষস্থানীয় এআই গবেষণা সংস্থা, তার Claude AI মডেলগুলির ব্যবহারকারীদের জন্য তার ভোক্তা শর্তাবলী এবং গোপনীয়তা নীতিতে উল্লেখযোগ্য আপডেটের ঘোষণা করেছে। এই পরিবর্তনগুলি, যা 2025 সালের 28শে আগস্ট থেকে কার্যকর হবে, ব্যবহারকারীদের তাদের ডেটার উপর আরও বেশি নিয়ন্ত্রণ দেওয়ার জন্য ডিজাইন করা হয়েছে, একই সাথে Anthropic-কে আরও সক্ষম এবং নিরাপদ এআই সিস্টেম তৈরি করতে সক্ষম করবে। এই আপডেটগুলির মূল কেন্দ্রবিন্দু হল মডেল প্রশিক্ষণে ডেটা ব্যবহারের জন্য একটি অপ্ট-ইন ব্যবস্থা এবং যারা অংশগ্রহণ করবে তাদের জন্য ডেটা সংরক্ষণের সময়কালের বর্ধিতকরণ।
এই পদক্ষেপটি কৃত্রিম বুদ্ধিমত্তা উন্নয়নে অধিক স্বচ্ছতা এবং ব্যবহারকারীর স্বায়ত্তশাসনের দিকে শিল্পের ক্রমবর্ধমান প্রবণতাকে প্রতিফলিত করে। ব্যবহারকারীদের তাদের মিথস্ক্রিয়া Claude-এর শিক্ষায় অবদান রাখবে কিনা তা সক্রিয়ভাবে বেছে নেওয়ার সুযোগ দিয়ে, Anthropic একটি সহযোগিতামূলক পরিবেশ গড়ে তোলার লক্ষ্য রাখে যা স্বতন্ত্র ব্যবহারকারী এবং বৃহত্তর এআই ইকোসিস্টেম উভয়কেই উপকৃত করে। ভোক্তা-কেন্দ্রিক নীতিগুলির এই কৌশলগত বিবর্তন দায়িত্বশীল এআই উন্নয়ন এবং ব্যবহারকারীর প্রতিশ্রুতির প্রতি কোম্পানির অঙ্গীকারকে তুলে ধরে।
ব্যবহারকারী-চালিত অন্তর্দৃষ্টি এবং সুরক্ষা সহ Claude-এর উন্নতি
Anthropic-এর আপডেট করা নীতির প্রাথমিক পরিবর্তন হল মডেলের উন্নতির জন্য ডেটা ব্যবহারের বিষয়ে ব্যবহারকারীর পছন্দের প্রবর্তন। Claude-এর Free, Pro এবং Max প্ল্যানের ব্যবহারকারীরা, যাদের অ্যাকাউন্ট থেকে Claude Code ব্যবহার করা হয়, তাদের ডেটা ভবিষ্যতের Claude মডেলগুলির প্রশিক্ষণে অবদান রাখার বিকল্প পাবেন। এই অংশগ্রহণকে আরও শক্তিশালী এবং বুদ্ধিমান এআই তৈরির দিকে একটি গুরুত্বপূর্ণ পদক্ষেপ হিসাবে বিবেচনা করা হচ্ছে।
এই ডেটা ব্যবহারে অপ্ট-ইন করার ফলে বেশ কিছু প্রত্যক্ষ সুবিধা পাওয়া যায়। Anthropic-এর মতে, ব্যবহারকারীর মিথস্ক্রিয়া মূল্যবান বাস্তব-বিশ্বের অন্তর্দৃষ্টি প্রদান করে যা মডেলের নিরাপত্তা প্রোটোকলগুলিকে পরিমার্জিত করতে সাহায্য করে, ক্ষতিকারক বিষয়বস্তু সনাক্তকরণের জন্য সিস্টেমগুলিকে আরও নির্ভুল করে তোলে এবং নিরীহ কথোপকথনগুলিকে ভুলভাবে চিহ্নিত করার প্রবণতা কমায়। নিরাপত্তার বাইরেও, ব্যবহারকারীর ডেটা Claude-এর মূল ক্ষমতাগুলিকে উল্লেখযোগ্যভাবে উন্নত করবে বলে আশা করা হচ্ছে, যেমন কোডিং দক্ষতা, বিশ্লেষণাত্মক যুক্তি এবং জটিল সমস্যা সমাধানের দক্ষতা। এই ফিডব্যাক লুপটি বৃহৎ ভাষা মডেলগুলির ক্রমাগত বিবর্তনের জন্য অপরিহার্য, যা সকলের জন্য আরও পরিমার্জিত এবং দরকারী এআই সরঞ্জাম তৈরি করে।
এই আপডেটগুলির নির্দিষ্ট পরিধি উল্লেখ করা গুরুত্বপূর্ণ। যদিও এটি ভোক্তা-স্তরের অ্যাকাউন্টগুলিতে প্রযোজ্য, তবে এই নীতি পরিবর্তনগুলি Anthropic-এর বাণিজ্যিক শর্তাবলী দ্বারা পরিচালিত পরিষেবাগুলিতে স্পষ্টভাবে প্রসারিত হয় না। এর মধ্যে রয়েছে Claude for Work, Claude for Government, Claude for Education, এবং সমস্ত API ব্যবহার, তা সরাসরি হোক বা Amazon Bedrock বা Google Cloud-এর Vertex AI-এর মতো তৃতীয় পক্ষের প্ল্যাটফর্মগুলির মাধ্যমে হোক। এই পার্থক্য নিশ্চিত করে যে বাণিজ্যিক ক্লায়েন্ট এবং এন্টারপ্রাইজ-স্তরের অংশীদাররা তাদের বিদ্যমান, প্রায়শই কাস্টমাইজড, ডেটা চুক্তি এবং গোপনীয়তা কাঠামো বজায় রাখবে। Amazon Bedrock AgentCore-এর মতো পরিষেবা ব্যবহারকারী ব্যবহারকারীদের জন্য, পৃথক চুক্তি বিদ্যমান থাকবে।
আপনার পছন্দগুলি পরিচালনা করা: অপ্ট-ইন এবং সময়সীমা
Anthropic ব্যবহারকারীদের তাদের ডেটার উপর স্পষ্ট নিয়ন্ত্রণ প্রদানের জন্য প্রতিশ্রুতিবদ্ধ। নতুন এবং বিদ্যমান উভয় Claude ব্যবহারকারীই ডেটা শেয়ারিং পছন্দগুলি করার জন্য স্বতন্ত্র প্রক্রিয়াগুলির মুখোমুখি হবেন। Claude-এর জন্য সাইন আপ করা নতুন ব্যবহারকারীরা মডেল প্রশিক্ষণের জন্য তাদের পছন্দ নির্বাচন করার বিকল্পটি অনবোর্ডিং প্রক্রিয়ার একটি অবিচ্ছেদ্য অংশ হিসাবে পাবেন, যা তাদের শুরু থেকেই তাদের গোপনীয়তা সেটিংস সংজ্ঞায়িত করতে দেবে।
বিদ্যমান ব্যবহারকারীদের জন্য, Anthropic ইন-অ্যাপ নোটিফিকেশনগুলির একটি পর্যায়ক্রমিক রোলআউট শুরু করেছে। এই পপ-আপ উইন্ডো ব্যবহারকারীদের আপডেট করা ভোক্তা শর্তাবলী এবং গোপনীয়তা নীতি পর্যালোচনা করতে এবং তাদের ডেটা মডেলের উন্নতির জন্য ব্যবহার করার অনুমতি দেবে কিনা তা সিদ্ধান্ত নিতে অনুরোধ করবে। ব্যবহারকারীদের 2025 সালের 8ই অক্টোবর পর্যন্ত তাদের নির্বাচন করার জন্য একটি সময়সীমা আছে। যদি একজন বিদ্যমান ব্যবহারকারী এই সময়সীমার আগে নতুন নীতিগুলি গ্রহণ করতে এবং অপ্ট-ইন করতে পছন্দ করেন, তাহলে এই পরিবর্তনগুলি সমস্ত নতুন বা পুনরায় শুরু হওয়া চ্যাট এবং কোডিং সেশনগুলির জন্য অবিলম্বে কার্যকর হবে। ব্যবহারকারীদের জন্য নির্দিষ্ট তারিখের মধ্যে একটি পছন্দ করা অত্যন্ত গুরুত্বপূর্ণ, কারণ 2025 সালের 8ই অক্টোবরের পরে Claude ব্যবহার চালিয়ে যেতে মডেল প্রশিক্ষণ সেটিংয়ে একটি নির্বাচন করা আবশ্যক হবে। এটি নিশ্চিত করে যে ব্যবহারকারীরা তাদের গোপনীয়তার ক্ষেত্র গঠনে সক্রিয়ভাবে জড়িত।
গুরুত্বপূর্ণভাবে, ব্যবহারকারীর নিয়ন্ত্রণ এককালীন সিদ্ধান্ত নয়। Anthropic জোর দেয় যে Claude ইন্টারফেসের মধ্যে ডেডিকেটেড গোপনীয়তা সেটিংস বিভাগের মাধ্যমে পছন্দগুলি যেকোনো সময় সামঞ্জস্য করা যেতে পারে। এই নমনীয়তা তাদের ব্যক্তিগত ডেটার যাত্রার বিষয়ে চলমান ব্যবহারকারী স্বায়ত্তশাসনের প্রতি কোম্পানির প্রতিশ্রুতিকে তুলে ধরে।
নীতির তুলনা: ডেটা ব্যবহার এবং সংরক্ষণ
এই আপডেটগুলির প্রভাব স্পষ্ট করার জন্য, নিম্নলিখিত সারণীটি নতুন ভোক্তা শর্তাবলীর অধীনে মডেল প্রশিক্ষণের জন্য ডেটা ব্যবহারে অপ্ট-ইন এবং অপ্ট-আউটের মধ্যে প্রধান পার্থক্যগুলি সংক্ষিপ্ত করে:
| বৈশিষ্ট্য | মডেল প্রশিক্ষণের জন্য অপ্ট-ইন (নতুন নীতি) | অপ্ট-আউট (বিদ্যমান/ডিফল্ট নীতি) |
|---|---|---|
| ডেটা ব্যবহার | নতুন/পুনরায় শুরু হওয়া চ্যাট ও কোডিং সেশনগুলি মডেলের উন্নতি ও নিরাপত্তার জন্য ব্যবহৃত হয়। | নতুন/পুনরায় শুরু হওয়া চ্যাট ও কোডিং সেশনগুলি মডেল প্রশিক্ষণের জন্য ব্যবহৃত হয় না। |
| ডেটা সংরক্ষণের সময়কাল | অপ্ট-ইন করা ডেটার জন্য 5 বছর। | সমস্ত ডেটার জন্য 30 দিন। |
| প্রযোজ্য | Claude Free, Pro, Max অ্যাকাউন্ট এবং Claude Code সেশন। | Claude Free, Pro, Max অ্যাকাউন্ট এবং Claude Code সেশন। |
| বাদপড়া | বাণিজ্যিক শর্তাবলী, API, Amazon Bedrock, Google Vertex AI পরিষেবাগুলি। | একই বাদপড়া। |
দীর্ঘমেয়াদী এআই উন্নয়নের জন্য কৌশলগত ডেটা সংরক্ষণ
মডেল প্রশিক্ষণের জন্য অপ্ট-ইন করার পাশাপাশি, Anthropic অংশগ্রহণকারী ব্যবহারকারীদের জন্য একটি বর্ধিত ডেটা সংরক্ষণের সময়কালও প্রবর্তন করছে। যদি একজন ব্যবহারকারী মডেলের উন্নতির জন্য তাদের ডেটা ব্যবহারের অনুমতি দিতে পছন্দ করেন, তাহলে নতুন বা পুনরায় শুরু হওয়া চ্যাট এবং কোডিং সেশনগুলির সংরক্ষণের সময়কাল পাঁচ বছর বাড়ানো হবে। যেসব ব্যবহারকারী অপ্ট-ইন করবেন না, তাদের জন্য বিদ্যমান 30-দিনের ডেটা সংরক্ষণের সময়কাল প্রযোজ্য থাকবে। এই বর্ধিত সংরক্ষণ Claude-এর প্রম্পটের প্রতিক্রিয়া সম্পর্কে জমা দেওয়া প্রতিক্রিয়াকেও কভার করে।
পাঁচ বছরের সংরক্ষণের সময়কালের পেছনের যুক্তি উন্নত এআই উন্নয়নের বাস্তবতার সাথে গভীরভাবে জড়িত। বৃহৎ ভাষা মডেলগুলি এমন উন্নয়ন চক্রের মধ্য দিয়ে যায় যা প্রায়শই প্রকাশের আগে 18 থেকে 24 মাস পর্যন্ত বিস্তৃত হয়। দীর্ঘ সময় ধরে ডেটার ধারাবাহিকতা বজায় রাখা আরও স্থিতিশীল এবং অনুমানযোগ্য মডেল তৈরির জন্য অত্যাবশ্যক। সামঞ্জস্যপূর্ণ ডেটা মডেলগুলিকে একইভাবে প্রশিক্ষণ এবং পরিমার্জিত করতে দেয়, যা ব্যবহারকারীদের জন্য মসৃণ রূপান্তর এবং আপগ্রেড তৈরি করে।
উপরন্তু, বর্ধিত সংরক্ষণ Anthropic-এর অভ্যন্তরীণ ক্লাসিফায়ার—অপব্যবহার, অপব্যবহার, স্প্যাম এবং অন্যান্য ক্ষতিকারক ধরণগুলি সনাক্ত ও প্রতিরোধের জন্য ব্যবহৃত অত্যাধুনিক সিস্টেমগুলি—উন্নীত করতে উল্লেখযোগ্যভাবে সহায়তা করে। এই নিরাপত্তা প্রক্রিয়াগুলি দীর্ঘ সময় ধরে সংগৃহীত ডেটা থেকে শিখে আরও কার্যকর হয়, যা Claude-এর সকলের জন্য একটি নিরাপদ এবং উপকারী সরঞ্জাম হিসাবে থাকার ক্ষমতা বাড়ায়। Anthropic বৃহত্তর এআই নিরাপত্তা আলোচনার জন্যও প্রতিশ্রুতিবদ্ধ, যেমন The Anthropic Institute-এর মতো উদ্যোগগুলি দ্বারা তুলে ধরা হয়েছে।
ব্যবহারকারীর গোপনীয়তা রক্ষা করার জন্য, Anthropic উন্নত সরঞ্জাম এবং স্বয়ংক্রিয় প্রক্রিয়াগুলির একটি সংমিশ্রণ ব্যবহার করে যা মডেল প্রশিক্ষণের জন্য বা বিশ্লেষণের জন্য ব্যবহার করার আগে সংবেদনশীল ডেটা ফিল্টার বা অস্পষ্ট করার জন্য ডিজাইন করা হয়েছে। কোম্পানি দৃঢ়ভাবে বলে যে তারা তৃতীয় পক্ষের কাছে ব্যবহারকারীর ডেটা বিক্রি করে না, যা অপ্ট-ইন করা ডেটার জন্য বর্ধিত সংরক্ষণের পরেও গোপনীয়তার প্রতি তাদের প্রতিশ্রুতিকে জোরদার করে। ব্যবহারকারীরা অপ্ট-ইন করার পরেও তাদের ডেটার উপর নিয়ন্ত্রণ বজায় রাখে; একটি নির্দিষ্ট কথোপকথন মুছে ফেললে তা ভবিষ্যতে মডেল প্রশিক্ষণের জন্য ব্যবহার করা হবে না।
ব্যবহারকারী ক্ষমতায়ন এবং ডেটা গভর্নেন্স
Anthropic-এর আপডেট করা ভোক্তা শর্তাবলী এবং গোপনীয়তা নীতি এআই উন্নয়নে ব্যবহারকারী-কেন্দ্রিক পদ্ধতিকে তুলে ধরে। মডেলের উন্নতির জন্য অবদান রাখার পছন্দ সরাসরি ব্যবহারকারীর হাতে রেখে, কোম্পানি একটি আরও স্বচ্ছ এবং সহযোগিতামূলক সম্পর্ক গড়ে তোলার লক্ষ্য রাখে। যেকোনো সময় এই পছন্দগুলি পরিবর্তন করার ক্ষমতা নিশ্চিত করে যে ব্যবহারকারীরা তাদের ডেটার যাত্রার উপর নিরবচ্ছিন্ন নিয়ন্ত্রণ বজায় রাখে।
যদি একজন ব্যবহারকারী প্রাথমিকভাবে মডেল প্রশিক্ষণের জন্য অপ্ট-ইন করেন কিন্তু পরে মন পরিবর্তন করে অপ্ট-আউট করার সিদ্ধান্ত নেন, তাহলে Anthropic-এর একটি স্পষ্ট নীতি রয়েছে। যদিও পূর্বে সম্পন্ন মডেল প্রশিক্ষণ চালানো এবং ইতিমধ্যেই প্রকাশিত মডেলগুলিতে ব্যবহৃত ডেটা সেই সংস্করণগুলির মধ্যে থাকতে পারে, তবে অপ্ট-আউট সিদ্ধান্তের পরে যেকোনো নতুন চ্যাট এবং কোডিং সেশন ভবিষ্যতে প্রশিক্ষণের জন্য ব্যবহার করা হবে না। কোম্পানি প্রতিশ্রুতিবদ্ধ যে একবার পছন্দটি আপডেট করা হলে, পূর্বে সংরক্ষিত চ্যাট এবং কোডিং সেশনগুলি ভবিষ্যতে যেকোনো মডেল প্রশিক্ষণ পুনরাবৃত্তিতে ব্যবহার করা বন্ধ করে দেবে। এটি ব্যবহারকারীদের তাদের গোপনীয়তা সেটিংস গতিশীলভাবে পরিচালনা করার জন্য একটি শক্তিশালী ব্যবস্থা প্রদান করে।
এই আপডেটগুলি ডেটা-চালিত এআই উদ্ভাবনের বিশাল সম্ভাবনা এবং ব্যবহারকারীর গোপনীয়তা ও স্বচ্ছতার অপরিহার্য গুরুত্বের মধ্যে ভারসাম্য বজায় রাখার দিকে একটি পরিমাপিত পদক্ষেপকে উপস্থাপন করে। যেহেতু এআই মডেলগুলি দৈনন্দিন জীবনে ক্রমবর্ধমানভাবে একত্রিত হচ্ছে, এই ধরনের নীতিগুলি বিশ্বাস তৈরি এবং নৈতিক উন্নয়ন নিশ্চিত করার জন্য অত্যন্ত গুরুত্বপূর্ণ।
সচরাচর জিজ্ঞাসিত প্রশ্ন
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
আপডেট থাকুন
সর্বশেষ AI খবর ইনবক্সে পান।
