Code Velocity
โมเดล AI

Anthropic Claude: การอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว

·5 นาทีอ่าน·Anthropic·แหล่งที่มา
แชร์
หน้าจอแจ้งเตือนการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวของ Anthropic Claude

title: "Anthropic Claude: การอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "th" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "โมเดล AI" keywords:

  • Anthropic
  • Claude AI
  • ข้อกำหนดสำหรับผู้บริโภค
  • นโยบายความเป็นส่วนตัว
  • การใช้ข้อมูล
  • การฝึกอบรมโมเดล
  • ความปลอดภัยของ AI
  • การเก็บรักษาข้อมูล
  • การตั้งค่าของผู้ใช้
  • การพัฒนา AI
  • นโยบาย LLM
  • ความโปร่งใส meta_description: "Anthropic ประกาศการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่สำคัญของ Claude โดยให้ผู้ใช้สามารถควบคุมการใช้ข้อมูลเพื่อปรับปรุงโมเดล และขยายระยะเวลาการเก็บรักษาข้อมูลเพื่อความปลอดภัยและการพัฒนา" image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "หน้าจอแจ้งเตือนการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวของ Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "การเปลี่ยนแปลงหลักที่ Anthropic ได้นำเสนอในการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวสำหรับผู้ใช้ Claude คืออะไร?" answer: "Anthropic กำลังทยอยนำเสนอการอัปเดตที่สำคัญต่อนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว โดยมุ่งเน้นที่การให้อำนาจผู้ใช้ในการเลือกที่จะอนุญาตให้ใช้ข้อมูลของตนเพื่อปรับปรุงโมเดล AI ของ Claude เมื่อเปิดใช้งานการตั้งค่านี้ ข้อมูลจากบัญชี Free, Pro และ Max รวมถึงเซสชัน Claude Code จะมีส่วนช่วยในการฝึกอบรมโมเดลใหม่ ซึ่งมีวัตถุประสงค์เพื่อเพิ่มความปลอดภัย ความแม่นยำ และความสามารถของโมเดลในด้านต่างๆ เช่น การเขียนโค้ด การวิเคราะห์ และการใช้เหตุผล นอกจากนี้ สำหรับผู้ใช้ที่เลือกเข้าร่วม ระยะเวลาการเก็บรักษาข้อมูลจะถูกขยายเป็นห้าปี ในทางกลับกัน หากผู้ใช้เลือกที่จะไม่เข้าร่วมการฝึกอบรมโมเดล นโยบายการเก็บรักษาข้อมูลเดิม 30 วันจะยังคงมีผลบังคับใช้ การเปลี่ยนแปลงเหล่านี้ไม่มีผลกระทบต่อผู้ใช้เชิงพาณิชย์ภายใต้ข้อตกลงองค์กรเฉพาะหรือการใช้งาน API ซึ่งทำให้มั่นใจว่ามีนโยบายที่แตกต่างกันสำหรับกลุ่มผู้ใช้ที่แตกต่างกัน"
  • question: "บริการ Claude และประเภทผู้ใช้ใดบ้างที่ได้รับผลกระทบจากการอัปเดตนโยบายใหม่เหล่านี้ และบริการใดบ้างที่ไม่ได้รับผลกระทบ?" answer: "นโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่อัปเดตมีผลบังคับใช้กับผู้ใช้แต่ละรายในแผน Claude Free, Pro และ Max ของ Anthropic โดยเฉพาะ ซึ่งรวมถึงกรณีที่ผู้ใช้โต้ตอบกับ Claude Code ผ่านบัญชีที่เกี่ยวข้องกับแผนผู้บริโภคเหล่านี้ อย่างไรก็ตาม สิ่งสำคัญคือต้องเข้าใจว่าการอัปเดตเหล่านี้ไม่ได้ขยายไปถึงบริการที่ดำเนินการภายใต้ข้อกำหนดเชิงพาณิชย์ของ Anthropic ซึ่งหมายความว่า Claude for Work (รวมถึงแผน Team และ Enterprise), Claude for Government, Claude for Education และการใช้งาน API ทั้งหมด—ไม่ว่าจะโดยตรงหรือผ่านแพลตฟอร์มของบุคคลที่สาม เช่น Amazon Bedrock หรือ Google Cloud’s Vertex AI—จะได้รับการยกเว้นอย่างชัดเจนจากการเปลี่ยนแปลงนโยบายที่มุ่งเน้นผู้บริโภคใหม่เหล่านี้ ผู้ใช้เชิงพาณิชย์และผู้รวม API จะยังคงดำเนินการภายใต้ข้อตกลงที่มีอยู่เดิม ซึ่งมีข้อกำหนดด้านความเป็นส่วนตัวและการจัดการข้อมูลแยกต่างหาก"
  • question: "เหตุใด Anthropic จึงทำการเปลี่ยนแปลงเหล่านี้ โดยเฉพาะอย่างยิ่งเกี่ยวกับการใช้ข้อมูลสำหรับการฝึกอบรมโมเดลและการเก็บรักษาข้อมูลที่ยาวนานขึ้น?" answer: "Anthropic ระบุว่าการเปลี่ยนแปลงเหล่านี้เกิดจากความจำเป็นพื้นฐานในการปรับปรุงความสามารถ ความปลอดภัย และประโยชน์ใช้สอยของโมเดลภาษาขนาดใหญ่ เช่น Claude อย่างต่อเนื่อง การโต้ตอบในโลกจริงให้สัญญาณข้อมูลอันล้ำค่าที่ช่วยให้โมเดลเรียนรู้ว่าการตอบสนองใดมีประโยชน์ แม่นยำ และปลอดภัยที่สุด ตัวอย่างเช่น นักพัฒนาที่แก้ไขโค้ดด้วย Claude จะให้ข้อมูลเชิงลึกที่สำคัญสำหรับการปรับปรุงความสามารถในการเขียนโค้ดในอนาคต การเก็บรักษาข้อมูลที่ยาวนานขึ้นห้าปี โดยเฉพาะสำหรับผู้ใช้ที่เลือกเข้าร่วม มีจุดประสงค์เพื่อรองรับวงจรการพัฒนา AI ที่ยาวนาน ทำให้มั่นใจได้ถึงความสอดคล้องของข้อมูลสำหรับการอัปเกรดโมเดลที่เสถียรยิ่งขึ้น และเพิ่มประสิทธิภาพของตัวจัดประเภทภายในที่ตรวจจับและบรรเทารูปแบบการใช้งานที่เป็นอันตราย เช่น การละเมิดหรือสแปมในช่วงระยะเวลาที่ยาวนานขึ้น ซึ่งท้ายที่สุดแล้วจะทำให้ Claude ปลอดภัยยิ่งขึ้นสำหรับทุกคน"
  • question: "ผู้ใช้ Claude ทั้งที่มีอยู่และรายใหม่จำเป็นต้องดำเนินการอย่างไรเกี่ยวกับการอัปเดตนโยบายเหล่านี้และการตั้งค่าข้อมูลของตน?" answer: "ผู้ใช้ Claude ที่มีอยู่จะได้รับการแจ้งเตือนในแอปเพื่อแจ้งให้ตรวจสอบการอัปเดตและตัดสินใจว่าจะอนุญาตให้ใช้การแชทและเซสชันการเขียนโค้ดของตนเพื่อปรับปรุงโมเดลหรือไม่ ผู้ใช้มีเวลาถึงวันที่ 8 ตุลาคม 2025 ในการเลือก หากเลือกที่จะยอมรับก่อนหน้านี้ นโยบายใหม่จะเริ่มใช้กับแชทใหม่หรือที่ดำเนินการต่อทันที หลังจากเส้นตาย การเลือกเป็นสิ่งจำเป็นเพื่อดำเนินการใช้ Claude ต่อไป ผู้ใช้ใหม่จะได้รับตัวเลือกนี้เป็นส่วนหนึ่งของกระบวนการลงทะเบียนเริ่มต้น ไม่ว่าจะเป็นผู้ใช้ใหม่หรือผู้ใช้เดิม การตั้งค่าสามารถปรับเปลี่ยนได้ตลอดเวลาผ่านการตั้งค่าความเป็นส่วนตัวโดยเฉพาะภายในอินเทอร์เฟซของ Claude ซึ่งให้การควบคุมการใช้ข้อมูลส่วนบุคคลอย่างต่อเนื่องและรับประกันความโปร่งใส"
  • question: "จะเกิดอะไรขึ้นหากผู้ใช้ในตอนแรกอนุญาตให้ใช้ข้อมูลสำหรับการฝึกอบรมโมเดล แต่ต่อมาตัดสินใจเปลี่ยนใจและเลือกที่จะไม่เข้าร่วม?" answer: "Anthropic เน้นย้ำว่าผู้ใช้ยังคงควบคุมการตั้งค่าข้อมูลของตนได้อย่างเต็มที่ และสามารถอัปเดตการเลือกได้ตลอดเวลาผ่านการตั้งค่าความเป็นส่วนตัว หากผู้ใช้ในตอนแรกเลือกที่จะเข้าร่วมสำหรับการฝึกอบรมโมเดลและต่อมาตัดสินใจปิดการตั้งค่านี้ การแชทและเซสชันการเขียนโค้ด ใหม่ กับ Claude จะไม่ถูกนำมาใช้สำหรับการฝึกอบรมโมเดลในอนาคตอีกต่อไป อย่างไรก็ตาม สิ่งสำคัญคือต้องทราบว่าข้อมูลจากการฝึกอบรมโมเดลที่ดำเนินการเสร็จสิ้นไปแล้วและโมเดลที่เผยแพร่ไปแล้วอาจยังมีข้อมูลจากการโต้ตอบที่ผ่านมาอยู่ อย่างไรก็ตาม Anthropic ให้คำมั่นว่าจะหยุดใช้การแชทและเซสชันการเขียนโค้ดที่เก็บไว้ก่อนหน้านี้ในการฝึกอบรมโมเดล ครั้งต่อไป เมื่อมีการลงทะเบียนการตั้งค่าการเลือกที่จะไม่เข้าร่วม ซึ่งเป็นการเคารพการเลือกที่อัปเดตของผู้ใช้สำหรับการใช้ข้อมูลและความเป็นส่วนตัวที่กำลังดำเนินอยู่"
  • question: "Anthropic สร้างความมั่นใจในความเป็นส่วนตัวของผู้ใช้และการปกป้องข้อมูลอย่างไรภายใต้นโยบายใหม่เหล่านี้ โดยเฉพาะอย่างยิ่งกับการเก็บรักษาข้อมูลที่ยาวนานขึ้น?" answer: "เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ Anthropic ใช้การผสมผสานระหว่างเครื่องมือขั้นสูงและกระบวนการอัตโนมัติที่ออกแบบมาเพื่อกรองหรือปิดบังข้อมูลที่ละเอียดอ่อนก่อนที่จะนำไปใช้สำหรับการฝึกอบรมโมเดล แม้จะมีการขยายระยะเวลาการเก็บรักษาข้อมูลสำหรับผู้ใช้ที่เลือกเข้าร่วม บริษัทระบุอย่างชัดเจนว่าไม่ได้ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม ซึ่งเป็นการตอกย้ำความมุ่งมั่นในความเป็นส่วนตัว นอกจากนี้ ผู้ใช้ยังคงควบคุมได้: การลบการสนทนาทำให้มั่นใจได้ว่าจะไม่ถูกนำไปใช้สำหรับการฝึกอบรมโมเดลในอนาคต และการเปลี่ยนการตั้งค่าการเลือกเข้าร่วมจะป้องกันไม่ให้แชทใหม่ถูกนำไปใช้ มาตรการเหล่านี้มีจุดมุ่งหมายเพื่อสร้างสมดุลระหว่างความจำเป็นในการปรับปรุงโมเดลที่ขับเคลื่อนด้วยข้อมูลกับการปกป้องความเป็นส่วนตัวอย่างเข้มงวด ทำให้มั่นใจได้ถึงความไว้วางใจของผู้ใช้และความปลอดภัยของข้อมูลตลอดวงจรการพัฒนา AI แนวทางที่ครอบคลุมนี้เน้นย้ำถึงความทุ่มเทของ Anthropic ในการปฏิบัติงาน AI ที่มีความรับผิดชอบ"

Anthropic Rolls Out Key Updates to Claude's Consumer Terms and Privacy Policy

Anthropic, บริษัทวิจัย AI ชั้นนำ, ได้ประกาศการอัปเดตที่สำคัญต่อนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวสำหรับผู้ใช้โมเดล AI ของ Claude การเปลี่ยนแปลงเหล่านี้ ซึ่งมีผลบังคับใช้ตั้งแต่วันที่ 28 สิงหาคม 2025 ถูกออกแบบมาเพื่อเพิ่มขีดความสามารถให้ผู้ใช้สามารถควบคุมข้อมูลของตนได้มากขึ้น ในขณะเดียวกันก็ช่วยให้ Anthropic สามารถพัฒนาและสร้างระบบ AI ที่มีประสิทธิภาพและปลอดภัยยิ่งขึ้นได้ หัวใจของการอัปเดตเหล่านี้มุ่งเน้นไปที่กลไกการเลือกเข้าร่วมสำหรับการใช้ข้อมูลในการฝึกอบรมโมเดล และระยะเวลาการเก็บรักษาข้อมูลที่ยาวนานขึ้นสำหรับผู้ที่เข้าร่วม

การเคลื่อนไหวนี้สะท้อนถึงแนวโน้มของอุตสาหกรรมที่กำลังเติบโตไปสู่ความโปร่งใสและการมีส่วนร่วมของผู้ใช้ในการพัฒนาปัญญาประดิษฐ์ ด้วยการอนุญาตให้ผู้ใช้เลือกว่าการโต้ตอบของพวกเขาจะนำไปสู่การเรียนรู้ของ Claude หรือไม่ Anthropic ตั้งเป้าที่จะส่งเสริมสภาพแวดล้อมการทำงานร่วมกันที่เป็นประโยชน์ต่อทั้งผู้ใช้แต่ละรายและระบบนิเวศ AI ที่กว้างขึ้น วิวัฒนาการเชิงกลยุทธ์ของนโยบายที่มุ่งเน้นผู้บริโภคนี้ตอกย้ำความมุ่งมั่นของบริษัทในการพัฒนา AI อย่างมีความรับผิดชอบและความไว้วางใจของผู้ใช้

การเพิ่มประสิทธิภาพ Claude ด้วยข้อมูลเชิงลึกและการป้องกันที่ขับเคลื่อนโดยผู้ใช้

การเปลี่ยนแปลงหลักในนโยบายที่อัปเดตของ Anthropic คือการนำเสนอทางเลือกของผู้ใช้เกี่ยวกับการใช้ข้อมูลเพื่อการปรับปรุงโมเดล ผู้ใช้ในแผน Claude Free, Pro และ Max รวมถึงผู้ที่ใช้ Claude Code จากบัญชีที่เกี่ยวข้อง จะมีตัวเลือกในการอนุญาตให้ข้อมูลของตนมีส่วนช่วยในการฝึกอบรมโมเดล Claude ในอนาคต การมีส่วนร่วมนี้ถือเป็นก้าวสำคัญในการสร้าง AI ที่แข็งแกร่งและชาญฉลาดยิ่งขึ้น

การเลือกเข้าร่วมในการใช้ข้อมูลนี้มีประโยชน์โดยตรงหลายประการ ตามที่ Anthropic ระบุ การโต้ตอบของผู้ใช้ให้ข้อมูลเชิงลึกในโลกจริงที่มีคุณค่าซึ่งช่วยปรับปรุงโปรโตคอลความปลอดภัยของโมเดล ทำให้ระบบตรวจจับเนื้อหาที่เป็นอันตรายมีความแม่นยำยิ่งขึ้นและมีโอกาสน้อยลงที่จะแจ้งเตือนการสนทนาที่ไม่เป็นอันตราย นอกเหนือจากความปลอดภัยแล้ว คาดว่าข้อมูลผู้ใช้จะช่วยปรับปรุงความสามารถหลักของ Claude ได้อย่างมาก เช่น ความเชี่ยวชาญในการเขียนโค้ด การใช้เหตุผลเชิงวิเคราะห์ และทักษะการแก้ปัญหาที่ซับซ้อน กลไกการตอบรับนี้มีความสำคัญต่อวิวัฒนาการอย่างต่อเนื่องของโมเดลภาษาขนาดใหญ่ ซึ่งนำไปสู่เครื่องมือ AI ที่ได้รับการปรับปรุงและมีประโยชน์มากขึ้นสำหรับทุกคน

สิ่งสำคัญคือต้องสังเกตขอบเขตเฉพาะของการอัปเดตเหล่านี้ ในขณะที่มีผลบังคับใช้กับบัญชีระดับผู้บริโภค การเปลี่ยนแปลงนโยบายเหล่านี้ ไม่ ครอบคลุมถึงบริการที่อยู่ภายใต้ข้อกำหนดเชิงพาณิชย์ของ Anthropic โดยชัดเจน ซึ่งรวมถึง Claude for Work, Claude for Government, Claude for Education และการใช้งาน API ทั้งหมด ไม่ว่าจะโดยตรงหรือผ่านแพลตฟอร์มของบุคคลที่สาม เช่น Amazon Bedrock หรือ Google Cloud’s Vertex AI ความแตกต่างนี้ทำให้มั่นใจได้ว่าลูกค้าเชิงพาณิชย์และพันธมิตรระดับองค์กรยังคงรักษาข้อตกลงข้อมูลและกรอบนโยบายความเป็นส่วนตัวที่มีอยู่เดิม ซึ่งมักจะปรับแต่งตามความต้องการ สำหรับผู้ใช้ที่ใช้บริการเช่น Amazon Bedrock AgentCore ข้อตกลงแยกต่างหากยังคงมีผลบังคับใช้

การสำรวจทางเลือกของคุณ: การเลือกเข้าร่วมและเส้นตาย

Anthropic มุ่งมั่นที่จะให้ผู้ใช้สามารถควบคุมข้อมูลของตนได้อย่างชัดเจน ผู้ใช้ Claude ทั้งรายใหม่และรายเก่าจะได้พบกับกระบวนการที่แตกต่างกันในการตัดสินใจเลือกการแบ่งปันข้อมูลของตน ผู้ใช้ใหม่ที่ลงทะเบียนสำหรับ Claude จะพบตัวเลือกในการเลือกการตั้งค่าสำหรับการฝึกอบรมโมเดลเป็นส่วนสำคัญของกระบวนการเริ่มต้นใช้งาน ทำให้พวกเขาสามารถกำหนดการตั้งค่าความเป็นส่วนตัวได้ตั้งแต่เริ่มต้น

สำหรับผู้ใช้เดิม Anthropic ได้เริ่มทยอยเปิดตัวการแจ้งเตือนในแอป หน้าต่างป๊อปอัปเหล่านี้จะแจ้งเตือนผู้ใช้ให้ตรวจสอบนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่อัปเดต และตัดสินใจว่าจะอนุญาตให้ใช้ข้อมูลของตนเพื่อปรับปรุงโมเดลหรือไม่ ผู้ใช้มีระยะเวลาผ่อนผันจนถึงวันที่ 8 ตุลาคม 2025 ในการเลือก หากผู้ใช้เดิมเลือกที่จะยอมรับนโยบายใหม่และเลือกเข้าร่วมก่อนเส้นตาย การเปลี่ยนแปลงเหล่านี้จะมีผลบังคับใช้ทันทีสำหรับการแชทและเซสชันการเขียนโค้ดใหม่หรือที่ดำเนินการต่อทั้งหมด เป็นสิ่งสำคัญสำหรับผู้ใช้ที่จะต้องตัดสินใจเลือกภายในวันที่กำหนด เนื่องจากหลังวันที่ 8 ตุลาคม 2025 การใช้ Claude ต่อไปจะต้องมีการเลือกในการตั้งค่าการฝึกอบรมโมเดล ซึ่งทำให้มั่นใจได้ว่าผู้ใช้มีส่วนร่วมอย่างแข็งขันในการกำหนดภูมิทัศน์ความเป็นส่วนตัวของตนเอง

ที่สำคัญ การควบคุมของผู้ใช้ไม่ใช่การตัดสินใจครั้งเดียว Anthropic เน้นย้ำว่าการตั้งค่าสามารถปรับเปลี่ยนได้ตลอดเวลาผ่านส่วนการตั้งค่าความเป็นส่วนตัวโดยเฉพาะภายในอินเทอร์เฟซของ Claude ความยืดหยุ่นนี้ตอกย้ำความมุ่งมั่นของบริษัทในการให้ผู้ใช้มีอิสระอย่างต่อเนื่องเกี่ยวกับข้อมูลส่วนบุคคลของตน

การเปรียบเทียบนโยบาย: การใช้ข้อมูลและการเก็บรักษา

เพื่อชี้แจงผลกระทบของการอัปเดตเหล่านี้ ตารางต่อไปนี้สรุปความแตกต่างที่สำคัญระหว่างการเลือกเข้าร่วมและการเลือกที่จะไม่เข้าร่วมการใช้ข้อมูลสำหรับการฝึกอบรมโมเดลภายใต้นโยบายผู้บริโภคใหม่:

คุณสมบัติการเลือกเข้าร่วมสำหรับการฝึกอบรมโมเดล (นโยบายใหม่)การเลือกที่จะไม่เข้าร่วม (นโยบายเดิม/ค่าเริ่มต้น)
การใช้ข้อมูลการแชทและเซสชันการเขียนโค้ดใหม่/ที่ดำเนินการต่อใช้เพื่อปรับปรุงโมเดลและเพื่อความปลอดภัยการแชทและเซสชันการเขียนโค้ดใหม่/ที่ดำเนินการต่อ ไม่ ถูกใช้สำหรับการฝึกอบรมโมเดล
ระยะเวลาการเก็บรักษาข้อมูล5 ปีสำหรับข้อมูลที่เลือกเข้าร่วม30 วันสำหรับข้อมูลทั้งหมด
ใช้กับบัญชี Claude Free, Pro, Max และเซสชัน Claude Codeบัญชี Claude Free, Pro, Max และเซสชัน Claude Code
การยกเว้นข้อกำหนดเชิงพาณิชย์, API, Amazon Bedrock, บริการ Google Vertex AIการยกเว้นเดียวกัน

การเก็บรักษาข้อมูลเชิงกลยุทธ์สำหรับการพัฒนา AI ระยะยาว

นอกจากการเลือกเข้าร่วมสำหรับการฝึกอบรมโมเดลแล้ว Anthropic ยังได้แนะนำระยะเวลาการเก็บรักษาข้อมูลที่ยาวนานขึ้นสำหรับผู้ใช้ที่เลือกเข้าร่วม หากผู้ใช้เลือกที่จะอนุญาตให้ข้อมูลของตนเพื่อปรับปรุงโมเดล ระยะเวลาการเก็บรักษาสำหรับการแชทและเซสชันการเขียนโค้ดใหม่หรือที่ดำเนินการต่อจะถูกขยายเป็นห้าปี สำหรับผู้ใช้ที่ไม่เลือกเข้าร่วม ระยะเวลาการเก็บรักษาข้อมูลเดิม 30 วันจะยังคงมีผลบังคับใช้ การเก็บรักษาที่ยาวนานขึ้นนี้ยังครอบคลุมถึงข้อเสนอแนะที่ส่งเกี่ยวกับคำตอบของ Claude ต่อคำสั่งต่างๆ

เหตุผลเบื้องหลังระยะเวลาการเก็บรักษาห้าปีนั้นฝังรากลึกในความเป็นจริงของการพัฒนา AI ขั้นสูง โมเดลภาษาขนาดใหญ่มีวงจรการพัฒนาที่มักจะใช้เวลา 18 ถึง 24 เดือนก่อนที่จะเผยแพร่ การรักษาความสอดคล้องของข้อมูลในช่วงระยะเวลาที่ยาวนานขึ้นเป็นสิ่งสำคัญสำหรับการสร้างโมเดลที่เสถียรและคาดเดาได้มากขึ้น ข้อมูลที่สอดคล้องกันช่วยให้โมเดลได้รับการฝึกอบรมและปรับปรุงในลักษณะที่คล้ายคลึงกัน ซึ่งนำไปสู่การเปลี่ยนผ่านและการอัปเกรดที่ราบรื่นยิ่งขึ้นสำหรับผู้ใช้

นอกจากนี้ การเก็บรักษาที่ยาวนานขึ้นยังช่วยปรับปรุงตัวจัดประเภทภายในของ Anthropic ได้อย่างมาก—ซึ่งเป็นระบบที่ซับซ้อนที่ใช้ในการระบุและตอบโต้การใช้งานในทางที่ผิด การละเมิด สแปม และรูปแบบที่เป็นอันตรายอื่นๆ กลไกความปลอดภัยเหล่านี้จะมีประสิทธิภาพมากขึ้นด้วยการเรียนรู้จากข้อมูลที่รวบรวมเป็นระยะเวลานานขึ้น ซึ่งช่วยเพิ่มความสามารถของ Claude ในการเป็นเครื่องมือที่ปลอดภัยและเป็นประโยชน์สำหรับทุกคน Anthropic ยังมุ่งมั่นที่จะอภิปรายเกี่ยวกับความปลอดภัยของ AI ในวงกว้างขึ้น ดังที่เน้นย้ำโดยความคิดริเริ่มเช่น The Anthropic Institute

เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ Anthropic ใช้การผสมผสานระหว่างเครื่องมือขั้นสูงและกระบวนการอัตโนมัติที่ออกแบบมาเพื่อกรองหรือปิดบังข้อมูลที่ละเอียดอ่อนก่อนที่จะนำไปใช้สำหรับการฝึกอบรมโมเดลหรือการวิเคราะห์ใดๆ บริษัทระบุอย่างชัดเจนว่าไม่ได้ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม ซึ่งเป็นการตอกย้ำความมุ่งมั่นในความเป็นส่วนตัวแม้จะมีการเก็บรักษาข้อมูลที่เลือกเข้าร่วมเป็นระยะเวลานานขึ้น ผู้ใช้ยังคงควบคุมข้อมูลของตนได้แม้จะเลือกเข้าร่วมแล้ว; การลบการสนทนาเฉพาะจะทำให้มั่นใจได้ว่าจะไม่ถูกนำไปใช้สำหรับการฝึกอบรมโมเดลในอนาคต

การเพิ่มขีดความสามารถของผู้ใช้และการกำกับดูแลข้อมูล

นโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่อัปเดตของ Anthropic ตอกย้ำแนวทางการพัฒนา AI ที่เน้นผู้ใช้เป็นศูนย์กลาง ด้วยการให้ทางเลือกในการมีส่วนร่วมในการปรับปรุงโมเดลแก่ผู้ใช้โดยตรง บริษัทตั้งเป้าที่จะส่งเสริมความสัมพันธ์ที่โปร่งใสและทำงานร่วมกันได้มากขึ้น ความสามารถในการปรับเปลี่ยนการตั้งค่าเหล่านี้ได้ตลอดเวลาทำให้มั่นใจได้ว่าผู้ใช้ยังคงควบคุมการเดินทางของข้อมูลของตนได้อย่างต่อเนื่อง

หากผู้ใช้ในตอนแรกเลือกเข้าร่วมสำหรับการฝึกอบรมโมเดล แต่ต่อมาตัดสินใจเปลี่ยนใจและเลือกที่จะไม่เข้าร่วม Anthropic มีนโยบายที่ชัดเจน แม้ว่าข้อมูลที่ใช้ในการฝึกอบรมโมเดลที่ดำเนินการเสร็จสิ้นไปแล้วและโมเดลที่เผยแพร่ไปแล้วอาจจะยังคงมีอยู่ในเวอร์ชันเหล่านั้น การแชทและเซสชันการเขียนโค้ด ใหม่ หลังจากการตัดสินใจเลือกที่จะไม่เข้าร่วมจะไม่ถูกนำมาใช้สำหรับการฝึกอบรมในอนาคต บริษัทให้คำมั่นที่จะหยุดใช้การแชทและเซสชันการเขียนโค้ดที่เก็บไว้ก่อนหน้านี้ในการฝึกอบรมโมเดล ครั้งต่อไป เมื่อมีการอัปเดตการตั้งค่า ซึ่งนำเสนอกลไกที่แข็งแกร่งสำหรับผู้ใช้ในการจัดการการตั้งค่าความเป็นส่วนตัวของตนได้อย่างมีพลวัต

การอัปเดตเหล่านี้เป็นก้าวที่รอบคอบในการสร้างสมดุลระหว่างศักยภาพอันมหาศาลของนวัตกรรม AI ที่ขับเคลื่อนด้วยข้อมูลกับความสำคัญสูงสุดของความเป็นส่วนตัวของผู้ใช้และความโปร่งใส ในขณะที่โมเดล AI ถูกรวมเข้ากับชีวิตประจำวันมากขึ้นเรื่อยๆ นโยบายเหล่านี้จึงมีความสำคัญอย่างยิ่งต่อการสร้างความไว้วางใจและรับรองการพัฒนาอย่างมีจริยธรรม

คำถามที่พบบ่อย

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์