title: "Anthropic Claude: การอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "th" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "โมเดล AI" keywords:
- Anthropic
- Claude AI
- ข้อกำหนดสำหรับผู้บริโภค
- นโยบายความเป็นส่วนตัว
- การใช้ข้อมูล
- การฝึกอบรมโมเดล
- ความปลอดภัยของ AI
- การเก็บรักษาข้อมูล
- การตั้งค่าของผู้ใช้
- การพัฒนา AI
- นโยบาย LLM
- ความโปร่งใส meta_description: "Anthropic ประกาศการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่สำคัญของ Claude โดยให้ผู้ใช้สามารถควบคุมการใช้ข้อมูลเพื่อปรับปรุงโมเดล และขยายระยะเวลาการเก็บรักษาข้อมูลเพื่อความปลอดภัยและการพัฒนา" image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "หน้าจอแจ้งเตือนการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวของ Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "การเปลี่ยนแปลงหลักที่ Anthropic ได้นำเสนอในการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวสำหรับผู้ใช้ Claude คืออะไร?" answer: "Anthropic กำลังทยอยนำเสนอการอัปเดตที่สำคัญต่อนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว โดยมุ่งเน้นที่การให้อำนาจผู้ใช้ในการเลือกที่จะอนุญาตให้ใช้ข้อมูลของตนเพื่อปรับปรุงโมเดล AI ของ Claude เมื่อเปิดใช้งานการตั้งค่านี้ ข้อมูลจากบัญชี Free, Pro และ Max รวมถึงเซสชัน Claude Code จะมีส่วนช่วยในการฝึกอบรมโมเดลใหม่ ซึ่งมีวัตถุประสงค์เพื่อเพิ่มความปลอดภัย ความแม่นยำ และความสามารถของโมเดลในด้านต่างๆ เช่น การเขียนโค้ด การวิเคราะห์ และการใช้เหตุผล นอกจากนี้ สำหรับผู้ใช้ที่เลือกเข้าร่วม ระยะเวลาการเก็บรักษาข้อมูลจะถูกขยายเป็นห้าปี ในทางกลับกัน หากผู้ใช้เลือกที่จะไม่เข้าร่วมการฝึกอบรมโมเดล นโยบายการเก็บรักษาข้อมูลเดิม 30 วันจะยังคงมีผลบังคับใช้ การเปลี่ยนแปลงเหล่านี้ไม่มีผลกระทบต่อผู้ใช้เชิงพาณิชย์ภายใต้ข้อตกลงองค์กรเฉพาะหรือการใช้งาน API ซึ่งทำให้มั่นใจว่ามีนโยบายที่แตกต่างกันสำหรับกลุ่มผู้ใช้ที่แตกต่างกัน"
- question: "บริการ Claude และประเภทผู้ใช้ใดบ้างที่ได้รับผลกระทบจากการอัปเดตนโยบายใหม่เหล่านี้ และบริการใดบ้างที่ไม่ได้รับผลกระทบ?" answer: "นโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่อัปเดตมีผลบังคับใช้กับผู้ใช้แต่ละรายในแผน Claude Free, Pro และ Max ของ Anthropic โดยเฉพาะ ซึ่งรวมถึงกรณีที่ผู้ใช้โต้ตอบกับ Claude Code ผ่านบัญชีที่เกี่ยวข้องกับแผนผู้บริโภคเหล่านี้ อย่างไรก็ตาม สิ่งสำคัญคือต้องเข้าใจว่าการอัปเดตเหล่านี้ไม่ได้ขยายไปถึงบริการที่ดำเนินการภายใต้ข้อกำหนดเชิงพาณิชย์ของ Anthropic ซึ่งหมายความว่า Claude for Work (รวมถึงแผน Team และ Enterprise), Claude for Government, Claude for Education และการใช้งาน API ทั้งหมด—ไม่ว่าจะโดยตรงหรือผ่านแพลตฟอร์มของบุคคลที่สาม เช่น Amazon Bedrock หรือ Google Cloud’s Vertex AI—จะได้รับการยกเว้นอย่างชัดเจนจากการเปลี่ยนแปลงนโยบายที่มุ่งเน้นผู้บริโภคใหม่เหล่านี้ ผู้ใช้เชิงพาณิชย์และผู้รวม API จะยังคงดำเนินการภายใต้ข้อตกลงที่มีอยู่เดิม ซึ่งมีข้อกำหนดด้านความเป็นส่วนตัวและการจัดการข้อมูลแยกต่างหาก"
- question: "เหตุใด Anthropic จึงทำการเปลี่ยนแปลงเหล่านี้ โดยเฉพาะอย่างยิ่งเกี่ยวกับการใช้ข้อมูลสำหรับการฝึกอบรมโมเดลและการเก็บรักษาข้อมูลที่ยาวนานขึ้น?" answer: "Anthropic ระบุว่าการเปลี่ยนแปลงเหล่านี้เกิดจากความจำเป็นพื้นฐานในการปรับปรุงความสามารถ ความปลอดภัย และประโยชน์ใช้สอยของโมเดลภาษาขนาดใหญ่ เช่น Claude อย่างต่อเนื่อง การโต้ตอบในโลกจริงให้สัญญาณข้อมูลอันล้ำค่าที่ช่วยให้โมเดลเรียนรู้ว่าการตอบสนองใดมีประโยชน์ แม่นยำ และปลอดภัยที่สุด ตัวอย่างเช่น นักพัฒนาที่แก้ไขโค้ดด้วย Claude จะให้ข้อมูลเชิงลึกที่สำคัญสำหรับการปรับปรุงความสามารถในการเขียนโค้ดในอนาคต การเก็บรักษาข้อมูลที่ยาวนานขึ้นห้าปี โดยเฉพาะสำหรับผู้ใช้ที่เลือกเข้าร่วม มีจุดประสงค์เพื่อรองรับวงจรการพัฒนา AI ที่ยาวนาน ทำให้มั่นใจได้ถึงความสอดคล้องของข้อมูลสำหรับการอัปเกรดโมเดลที่เสถียรยิ่งขึ้น และเพิ่มประสิทธิภาพของตัวจัดประเภทภายในที่ตรวจจับและบรรเทารูปแบบการใช้งานที่เป็นอันตราย เช่น การละเมิดหรือสแปมในช่วงระยะเวลาที่ยาวนานขึ้น ซึ่งท้ายที่สุดแล้วจะทำให้ Claude ปลอดภัยยิ่งขึ้นสำหรับทุกคน"
- question: "ผู้ใช้ Claude ทั้งที่มีอยู่และรายใหม่จำเป็นต้องดำเนินการอย่างไรเกี่ยวกับการอัปเดตนโยบายเหล่านี้และการตั้งค่าข้อมูลของตน?" answer: "ผู้ใช้ Claude ที่มีอยู่จะได้รับการแจ้งเตือนในแอปเพื่อแจ้งให้ตรวจสอบการอัปเดตและตัดสินใจว่าจะอนุญาตให้ใช้การแชทและเซสชันการเขียนโค้ดของตนเพื่อปรับปรุงโมเดลหรือไม่ ผู้ใช้มีเวลาถึงวันที่ 8 ตุลาคม 2025 ในการเลือก หากเลือกที่จะยอมรับก่อนหน้านี้ นโยบายใหม่จะเริ่มใช้กับแชทใหม่หรือที่ดำเนินการต่อทันที หลังจากเส้นตาย การเลือกเป็นสิ่งจำเป็นเพื่อดำเนินการใช้ Claude ต่อไป ผู้ใช้ใหม่จะได้รับตัวเลือกนี้เป็นส่วนหนึ่งของกระบวนการลงทะเบียนเริ่มต้น ไม่ว่าจะเป็นผู้ใช้ใหม่หรือผู้ใช้เดิม การตั้งค่าสามารถปรับเปลี่ยนได้ตลอดเวลาผ่านการตั้งค่าความเป็นส่วนตัวโดยเฉพาะภายในอินเทอร์เฟซของ Claude ซึ่งให้การควบคุมการใช้ข้อมูลส่วนบุคคลอย่างต่อเนื่องและรับประกันความโปร่งใส"
- question: "จะเกิดอะไรขึ้นหากผู้ใช้ในตอนแรกอนุญาตให้ใช้ข้อมูลสำหรับการฝึกอบรมโมเดล แต่ต่อมาตัดสินใจเปลี่ยนใจและเลือกที่จะไม่เข้าร่วม?" answer: "Anthropic เน้นย้ำว่าผู้ใช้ยังคงควบคุมการตั้งค่าข้อมูลของตนได้อย่างเต็มที่ และสามารถอัปเดตการเลือกได้ตลอดเวลาผ่านการตั้งค่าความเป็นส่วนตัว หากผู้ใช้ในตอนแรกเลือกที่จะเข้าร่วมสำหรับการฝึกอบรมโมเดลและต่อมาตัดสินใจปิดการตั้งค่านี้ การแชทและเซสชันการเขียนโค้ด ใหม่ กับ Claude จะไม่ถูกนำมาใช้สำหรับการฝึกอบรมโมเดลในอนาคตอีกต่อไป อย่างไรก็ตาม สิ่งสำคัญคือต้องทราบว่าข้อมูลจากการฝึกอบรมโมเดลที่ดำเนินการเสร็จสิ้นไปแล้วและโมเดลที่เผยแพร่ไปแล้วอาจยังมีข้อมูลจากการโต้ตอบที่ผ่านมาอยู่ อย่างไรก็ตาม Anthropic ให้คำมั่นว่าจะหยุดใช้การแชทและเซสชันการเขียนโค้ดที่เก็บไว้ก่อนหน้านี้ในการฝึกอบรมโมเดล ครั้งต่อไป เมื่อมีการลงทะเบียนการตั้งค่าการเลือกที่จะไม่เข้าร่วม ซึ่งเป็นการเคารพการเลือกที่อัปเดตของผู้ใช้สำหรับการใช้ข้อมูลและความเป็นส่วนตัวที่กำลังดำเนินอยู่"
- question: "Anthropic สร้างความมั่นใจในความเป็นส่วนตัวของผู้ใช้และการปกป้องข้อมูลอย่างไรภายใต้นโยบายใหม่เหล่านี้ โดยเฉพาะอย่างยิ่งกับการเก็บรักษาข้อมูลที่ยาวนานขึ้น?" answer: "เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ Anthropic ใช้การผสมผสานระหว่างเครื่องมือขั้นสูงและกระบวนการอัตโนมัติที่ออกแบบมาเพื่อกรองหรือปิดบังข้อมูลที่ละเอียดอ่อนก่อนที่จะนำไปใช้สำหรับการฝึกอบรมโมเดล แม้จะมีการขยายระยะเวลาการเก็บรักษาข้อมูลสำหรับผู้ใช้ที่เลือกเข้าร่วม บริษัทระบุอย่างชัดเจนว่าไม่ได้ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม ซึ่งเป็นการตอกย้ำความมุ่งมั่นในความเป็นส่วนตัว นอกจากนี้ ผู้ใช้ยังคงควบคุมได้: การลบการสนทนาทำให้มั่นใจได้ว่าจะไม่ถูกนำไปใช้สำหรับการฝึกอบรมโมเดลในอนาคต และการเปลี่ยนการตั้งค่าการเลือกเข้าร่วมจะป้องกันไม่ให้แชทใหม่ถูกนำไปใช้ มาตรการเหล่านี้มีจุดมุ่งหมายเพื่อสร้างสมดุลระหว่างความจำเป็นในการปรับปรุงโมเดลที่ขับเคลื่อนด้วยข้อมูลกับการปกป้องความเป็นส่วนตัวอย่างเข้มงวด ทำให้มั่นใจได้ถึงความไว้วางใจของผู้ใช้และความปลอดภัยของข้อมูลตลอดวงจรการพัฒนา AI แนวทางที่ครอบคลุมนี้เน้นย้ำถึงความทุ่มเทของ Anthropic ในการปฏิบัติงาน AI ที่มีความรับผิดชอบ"
Anthropic Rolls Out Key Updates to Claude's Consumer Terms and Privacy Policy
Anthropic, บริษัทวิจัย AI ชั้นนำ, ได้ประกาศการอัปเดตที่สำคัญต่อนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวสำหรับผู้ใช้โมเดล AI ของ Claude การเปลี่ยนแปลงเหล่านี้ ซึ่งมีผลบังคับใช้ตั้งแต่วันที่ 28 สิงหาคม 2025 ถูกออกแบบมาเพื่อเพิ่มขีดความสามารถให้ผู้ใช้สามารถควบคุมข้อมูลของตนได้มากขึ้น ในขณะเดียวกันก็ช่วยให้ Anthropic สามารถพัฒนาและสร้างระบบ AI ที่มีประสิทธิภาพและปลอดภัยยิ่งขึ้นได้ หัวใจของการอัปเดตเหล่านี้มุ่งเน้นไปที่กลไกการเลือกเข้าร่วมสำหรับการใช้ข้อมูลในการฝึกอบรมโมเดล และระยะเวลาการเก็บรักษาข้อมูลที่ยาวนานขึ้นสำหรับผู้ที่เข้าร่วม
การเคลื่อนไหวนี้สะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเติบโตไปสู่ความโปร่งใสและการมีส่วนร่วมของผู้ใช้ในการพัฒนาปัญญาประดิษฐ์ ด้วยการอนุญาตให้ผู้ใช้เลือกว่าการโต้ตอบของพวกเขาจะนำไปสู่การเรียนรู้ของ Claude หรือไม่ Anthropic ตั้งเป้าที่จะส่งเสริมสภาพแวดล้อมการทำงานร่วมกันที่เป็นประโยชน์ต่อทั้งผู้ใช้แต่ละรายและระบบนิเวศ AI ที่กว้างขึ้น วิวัฒนาการเชิงกลยุทธ์ของนโยบายที่มุ่งเน้นผู้บริโภคนี้ตอกย้ำความมุ่งมั่นของบริษัทในการพัฒนา AI อย่างมีความรับผิดชอบและความไว้วางใจของผู้ใช้
การเพิ่มประสิทธิภาพ Claude ด้วยข้อมูลเชิงลึกและการป้องกันที่ขับเคลื่อนโดยผู้ใช้
การเปลี่ยนแปลงหลักในนโยบายที่อัปเดตของ Anthropic คือการนำเสนอทางเลือกของผู้ใช้เกี่ยวกับการใช้ข้อมูลเพื่อการปรับปรุงโมเดล ผู้ใช้ในแผน Claude Free, Pro และ Max รวมถึงผู้ที่ใช้ Claude Code จากบัญชีที่เกี่ยวข้อง จะมีตัวเลือกในการอนุญาตให้ข้อมูลของตนมีส่วนช่วยในการฝึกอบรมโมเดล Claude ในอนาคต การมีส่วนร่วมนี้ถือเป็นก้าวสำคัญในการสร้าง AI ที่แข็งแกร่งและชาญฉลาดยิ่งขึ้น
การเลือกเข้าร่วมในการใช้ข้อมูลนี้มีประโยชน์โดยตรงหลายประการ ตามที่ Anthropic ระบุ การโต้ตอบของผู้ใช้ให้ข้อมูลเชิงลึกในโลกจริงที่มีคุณค่าซึ่งช่วยปรับปรุงโปรโตคอลความปลอดภัยของโมเดล ทำให้ระบบตรวจจับเนื้อหาที่เป็นอันตรายมีความแม่นยำยิ่งขึ้นและมีโอกาสน้อยลงที่จะแจ้งเตือนการสนทนาที่ไม่เป็นอันตราย นอกเหนือจากความปลอดภัยแล้ว คาดว่าข้อมูลผู้ใช้จะช่วยปรับปรุงความสามารถหลักของ Claude ได้อย่างมาก เช่น ความเชี่ยวชาญในการเขียนโค้ด การใช้เหตุผลเชิงวิเคราะห์ และทักษะการแก้ปัญหาที่ซับซ้อน กลไกการตอบรับนี้มีความสำคัญต่อวิวัฒนาการอย่างต่อเนื่องของโมเดลภาษาขนาดใหญ่ ซึ่งนำไปสู่เครื่องมือ AI ที่ได้รับการปรับปรุงและมีประโยชน์มากขึ้นสำหรับทุกคน
สิ่งสำคัญคือต้องสังเกตขอบเขตเฉพาะของการอัปเดตเหล่านี้ ในขณะที่มีผลบังคับใช้กับบัญชีระดับผู้บริโภค การเปลี่ยนแปลงนโยบายเหล่านี้ ไม่ ครอบคลุมถึงบริการที่อยู่ภายใต้ข้อกำหนดเชิงพาณิชย์ของ Anthropic โดยชัดเจน ซึ่งรวมถึง Claude for Work, Claude for Government, Claude for Education และการใช้งาน API ทั้งหมด ไม่ว่าจะโดยตรงหรือผ่านแพลตฟอร์มของบุคคลที่สาม เช่น Amazon Bedrock หรือ Google Cloud’s Vertex AI ความแตกต่างนี้ทำให้มั่นใจได้ว่าลูกค้าเชิงพาณิชย์และพันธมิตรระดับองค์กรยังคงรักษาข้อตกลงข้อมูลและกรอบนโยบายความเป็นส่วนตัวที่มีอยู่เดิม ซึ่งมักจะปรับแต่งตามความต้องการ สำหรับผู้ใช้ที่ใช้บริการเช่น Amazon Bedrock AgentCore ข้อตกลงแยกต่างหากยังคงมีผลบังคับใช้
การสำรวจทางเลือกของคุณ: การเลือกเข้าร่วมและเส้นตาย
Anthropic มุ่งมั่นที่จะให้ผู้ใช้สามารถควบคุมข้อมูลของตนได้อย่างชัดเจน ผู้ใช้ Claude ทั้งรายใหม่และรายเก่าจะได้พบกับกระบวนการที่แตกต่างกันในการตัดสินใจเลือกการแบ่งปันข้อมูลของตน ผู้ใช้ใหม่ที่ลงทะเบียนสำหรับ Claude จะพบตัวเลือกในการเลือกการตั้งค่าสำหรับการฝึกอบรมโมเดลเป็นส่วนสำคัญของกระบวนการเริ่มต้นใช้งาน ทำให้พวกเขาสามารถกำหนดการตั้งค่าความเป็นส่วนตัวได้ตั้งแต่เริ่มต้น
สำหรับผู้ใช้เดิม Anthropic ได้เริ่มทยอยเปิดตัวการแจ้งเตือนในแอป หน้าต่างป๊อปอัปเหล่านี้จะแจ้งเตือนผู้ใช้ให้ตรวจสอบนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่อัปเดต และตัดสินใจว่าจะอนุญาตให้ใช้ข้อมูลของตนเพื่อปรับปรุงโมเดลหรือไม่ ผู้ใช้มีระยะเวลาผ่อนผันจนถึงวันที่ 8 ตุลาคม 2025 ในการเลือก หากผู้ใช้เดิมเลือกที่จะยอมรับนโยบายใหม่และเลือกเข้าร่วมก่อนเส้นตาย การเปลี่ยนแปลงเหล่านี้จะมีผลบังคับใช้ทันทีสำหรับการแชทและเซสชันการเขียนโค้ดใหม่หรือที่ดำเนินการต่อทั้งหมด เป็นสิ่งสำคัญสำหรับผู้ใช้ที่จะต้องตัดสินใจเลือกภายในวันที่กำหนด เนื่องจากหลังวันที่ 8 ตุลาคม 2025 การใช้ Claude ต่อไปจะต้องมีการเลือกในการตั้งค่าการฝึกอบรมโมเดล ซึ่งทำให้มั่นใจได้ว่าผู้ใช้มีส่วนร่วมอย่างแข็งขันในการกำหนดภูมิทัศน์ความเป็นส่วนตัวของตนเอง
ที่สำคัญ การควบคุมของผู้ใช้ไม่ใช่การตัดสินใจครั้งเดียว Anthropic เน้นย้ำว่าการตั้งค่าสามารถปรับเปลี่ยนได้ตลอดเวลาผ่านส่วนการตั้งค่าความเป็นส่วนตัวโดยเฉพาะภายในอินเทอร์เฟซของ Claude ความยืดหยุ่นนี้ตอกย้ำความมุ่งมั่นของบริษัทในการให้ผู้ใช้มีอิสระอย่างต่อเนื่องเกี่ยวกับข้อมูลส่วนบุคคลของตน
การเปรียบเทียบนโยบาย: การใช้ข้อมูลและการเก็บรักษา
เพื่อชี้แจงผลกระทบของการอัปเดตเหล่านี้ ตารางต่อไปนี้สรุปความแตกต่างที่สำคัญระหว่างการเลือกเข้าร่วมและการเลือกที่จะไม่เข้าร่วมการใช้ข้อมูลสำหรับการฝึกอบรมโมเดลภายใต้นโยบายผู้บริโภคใหม่:
| คุณสมบัติ | การเลือกเข้าร่วมสำหรับการฝึกอบรมโมเดล (นโยบายใหม่) | การเลือกที่จะไม่เข้าร่วม (นโยบายเดิม/ค่าเริ่มต้น) |
|---|---|---|
| การใช้ข้อมูล | การแชทและเซสชันการเขียนโค้ดใหม่/ที่ดำเนินการต่อใช้เพื่อปรับปรุงโมเดลและเพื่อความปลอดภัย | การแชทและเซสชันการเขียนโค้ดใหม่/ที่ดำเนินการต่อ ไม่ ถูกใช้สำหรับการฝึกอบรมโมเดล |
| ระยะเวลาการเก็บรักษาข้อมูล | 5 ปีสำหรับข้อมูลที่เลือกเข้าร่วม | 30 วันสำหรับข้อมูลทั้งหมด |
| ใช้กับ | บัญชี Claude Free, Pro, Max และเซสชัน Claude Code | บัญชี Claude Free, Pro, Max และเซสชัน Claude Code |
| การยกเว้น | ข้อกำหนดเชิงพาณิชย์, API, Amazon Bedrock, บริการ Google Vertex AI | การยกเว้นเดียวกัน |
การเก็บรักษาข้อมูลเชิงกลยุทธ์สำหรับการพัฒนา AI ระยะยาว
นอกจากการเลือกเข้าร่วมสำหรับการฝึกอบรมโมเดลแล้ว Anthropic ยังได้แนะนำระยะเวลาการเก็บรักษาข้อมูลที่ยาวนานขึ้นสำหรับผู้ใช้ที่เลือกเข้าร่วม หากผู้ใช้เลือกที่จะอนุญาตให้ข้อมูลของตนเพื่อปรับปรุงโมเดล ระยะเวลาการเก็บรักษาสำหรับการแชทและเซสชันการเขียนโค้ดใหม่หรือที่ดำเนินการต่อจะถูกขยายเป็นห้าปี สำหรับผู้ใช้ที่ไม่เลือกเข้าร่วม ระยะเวลาการเก็บรักษาข้อมูลเดิม 30 วันจะยังคงมีผลบังคับใช้ การเก็บรักษาที่ยาวนานขึ้นนี้ยังครอบคลุมถึงข้อเสนอแนะที่ส่งเกี่ยวกับคำตอบของ Claude ต่อคำสั่งต่างๆ
เหตุผลเบื้องหลังระยะเวลาการเก็บรักษาห้าปีนั้นฝังรากลึกในความเป็นจริงของการพัฒนา AI ขั้นสูง โมเดลภาษาขนาดใหญ่มีวงจรการพัฒนาที่มักจะใช้เวลา 18 ถึง 24 เดือนก่อนที่จะเผยแพร่ การรักษาความสอดคล้องของข้อมูลในช่วงระยะเวลาที่ยาวนานขึ้นเป็นสิ่งสำคัญสำหรับการสร้างโมเดลที่เสถียรและคาดเดาได้มากขึ้น ข้อมูลที่สอดคล้องกันช่วยให้โมเดลได้รับการฝึกอบรมและปรับปรุงในลักษณะที่คล้ายคลึงกัน ซึ่งนำไปสู่การเปลี่ยนผ่านและการอัปเกรดที่ราบรื่นยิ่งขึ้นสำหรับผู้ใช้
นอกจากนี้ การเก็บรักษาที่ยาวนานขึ้นยังช่วยปรับปรุงตัวจัดประเภทภายในของ Anthropic ได้อย่างมาก—ซึ่งเป็นระบบที่ซับซ้อนที่ใช้ในการระบุและตอบโต้การใช้งานในทางที่ผิด การละเมิด สแปม และรูปแบบที่เป็นอันตรายอื่นๆ กลไกความปลอดภัยเหล่านี้จะมีประสิทธิภาพมากขึ้นด้วยการเรียนรู้จากข้อมูลที่รวบรวมเป็นระยะเวลานานขึ้น ซึ่งช่วยเพิ่มความสามารถของ Claude ในการเป็นเครื่องมือที่ปลอดภัยและเป็นประโยชน์สำหรับทุกคน Anthropic ยังมุ่งมั่นที่จะอภิปรายเกี่ยวกับความปลอดภัยของ AI ในวงกว้างขึ้น ดังที่เน้นย้ำโดยความคิดริเริ่มเช่น The Anthropic Institute
เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ Anthropic ใช้การผสมผสานระหว่างเครื่องมือขั้นสูงและกระบวนการอัตโนมัติที่ออกแบบมาเพื่อกรองหรือปิดบังข้อมูลที่ละเอียดอ่อนก่อนที่จะนำไปใช้สำหรับการฝึกอบรมโมเดลหรือการวิเคราะห์ใดๆ บริษัทระบุอย่างชัดเจนว่าไม่ได้ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม ซึ่งเป็นการตอกย้ำความมุ่งมั่นในความเป็นส่วนตัวแม้จะมีการเก็บรักษาข้อมูลที่เลือกเข้าร่วมเป็นระยะเวลานานขึ้น ผู้ใช้ยังคงควบคุมข้อมูลของตนได้แม้จะเลือกเข้าร่วมแล้ว; การลบการสนทนาเฉพาะจะทำให้มั่นใจได้ว่าจะไม่ถูกนำไปใช้สำหรับการฝึกอบรมโมเดลในอนาคต
การเพิ่มขีดความสามารถของผู้ใช้และการกำกับดูแลข้อมูล
นโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่อัปเดตของ Anthropic ตอกย้ำแนวทางการพัฒนา AI ที่เน้นผู้ใช้เป็นศูนย์กลาง ด้วยการให้ทางเลือกในการมีส่วนร่วมในการปรับปรุงโมเดลแก่ผู้ใช้โดยตรง บริษัทตั้งเป้าที่จะส่งเสริมความสัมพันธ์ที่โปร่งใสและทำงานร่วมกันได้มากขึ้น ความสามารถในการปรับเปลี่ยนการตั้งค่าเหล่านี้ได้ตลอดเวลาทำให้มั่นใจได้ว่าผู้ใช้ยังคงควบคุมการเดินทางของข้อมูลของตนได้อย่างต่อเนื่อง
หากผู้ใช้ในตอนแรกเลือกเข้าร่วมสำหรับการฝึกอบรมโมเดล แต่ต่อมาตัดสินใจเปลี่ยนใจและเลือกที่จะไม่เข้าร่วม Anthropic มีนโยบายที่ชัดเจน แม้ว่าข้อมูลที่ใช้ในการฝึกอบรมโมเดลที่ดำเนินการเสร็จสิ้นไปแล้วและโมเดลที่เผยแพร่ไปแล้วอาจจะยังคงมีอยู่ในเวอร์ชันเหล่านั้น การแชทและเซสชันการเขียนโค้ด ใหม่ หลังจากการตัดสินใจเลือกที่จะไม่เข้าร่วมจะไม่ถูกนำมาใช้สำหรับการฝึกอบรมในอนาคต บริษัทให้คำมั่นที่จะหยุดใช้การแชทและเซสชันการเขียนโค้ดที่เก็บไว้ก่อนหน้านี้ในการฝึกอบรมโมเดล ครั้งต่อไป เมื่อมีการอัปเดตการตั้งค่า ซึ่งนำเสนอกลไกที่แข็งแกร่งสำหรับผู้ใช้ในการจัดการการตั้งค่าความเป็นส่วนตัวของตนได้อย่างมีพลวัต
การอัปเดตเหล่านี้เป็นก้าวที่รอบคอบในการสร้างสมดุลระหว่างศักยภาพอันมหาศาลของนวัตกรรม AI ที่ขับเคลื่อนด้วยข้อมูลกับความสำคัญสูงสุดของความเป็นส่วนตัวของผู้ใช้และความโปร่งใส ในขณะที่โมเดล AI ถูกรวมเข้ากับชีวิตประจำวันมากขึ้นเรื่อยๆ นโยบายเหล่านี้จึงมีความสำคัญอย่างยิ่งต่อการสร้างความไว้วางใจและรับรองการพัฒนาอย่างมีจริยธรรม
คำถามที่พบบ่อย
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
อัปเดตข่าวสาร
รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ
