Code Velocity
AI สำหรับองค์กร

ความเป็นส่วนตัวระดับองค์กรของ OpenAI: เจาะลึกการเป็นเจ้าของข้อมูลและความปลอดภัย

·5 นาทีอ่าน·OpenAI·แหล่งที่มา
แชร์
ความเป็นส่วนตัวระดับองค์กรของ OpenAI: การเป็นเจ้าของและควบคุมข้อมูลอย่างปลอดภัยสำหรับธุรกิจที่ใช้เครื่องมือ AI

title: "ความเป็นส่วนตัวระดับองค์กรของ OpenAI: เจาะลึกการเป็นเจ้าของข้อมูลและความปลอดภัย" slug: "enterprise-privacy" date: "2026-03-06" lang: "th" source: "https://openai.com/enterprise-privacy/" category: "AI สำหรับองค์กร" keywords:

  • OpenAI
  • ความเป็นส่วนตัวระดับองค์กร
  • ความปลอดภัยของข้อมูล
  • การเป็นเจ้าของข้อมูล
  • การปฏิบัติตาม GDPR
  • การตรวจสอบ SOC 2
  • ChatGPT Enterprise
  • แพลตฟอร์ม API
  • ข้อมูลธุรกิจ
  • ความเป็นส่วนตัวของ AI
  • การควบคุมข้อมูล
  • การฝึกโมเดล meta_description: "สำรวจข้อผูกมัดด้านความเป็นส่วนตัวระดับองค์กรที่ครอบคลุมของ OpenAI โดยให้รายละเอียดเกี่ยวกับการเป็นเจ้าของข้อมูล โปรโตคอลความปลอดภัยเช่น SOC 2 และการปฏิบัติตาม GDPR ในโซลูชัน ChatGPT Business, Enterprise และ API" image: "/images/articles/enterprise-privacy.png" image_alt: "ความเป็นส่วนตัวระดับองค์กรของ OpenAI: การเป็นเจ้าของและควบคุมข้อมูลอย่างปลอดภัยสำหรับธุรกิจที่ใช้เครื่องมือ AI" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "OpenAI ใช้ข้อมูลธุรกิจของฉันเพื่อฝึกโมเดล AI ของพวกเขาหรือไม่?" answer: "ตามค่าเริ่มต้น OpenAI จะไม่ใช้ข้อมูลธุรกิจของคุณ ซึ่งรวมถึงอินพุตและเอาต์พุตจาก ChatGPT Business, Enterprise, Healthcare, Edu, Teachers หรือแพลตฟอร์ม API เพื่อฝึกโมเดลของพวกเขา ข้อผูกมัดนี้ช่วยให้มั่นใจว่าข้อมูลที่เป็นกรรมสิทธิ์ของคุณยังคงเป็นความลับ เว้นแต่คุณจะเลือกเข้าร่วมอย่างชัดเจนผ่านกลไกการให้ข้อเสนอแนะเพื่อปรับปรุงบริการ หลักการสำคัญคือการไม่ใช้ข้อมูลในการฝึกโมเดลเป็นค่าเริ่มต้น ซึ่งช่วยให้องค์กรมีอำนาจควบคุมทรัพย์สินทางปัญญาของตนได้อย่างมาก"
  • question: "OpenAI รับประกันความปลอดภัยและการปฏิบัติตามข้อกำหนดของข้อมูลองค์กรได้อย่างไร?" answer: "OpenAI บังคับใช้มาตรการความปลอดภัยของข้อมูลและการปฏิบัติตามข้อกำหนดที่แข็งแกร่ง ซึ่งรวมถึงการตรวจสอบ SOC 2 ที่ประสบความสำเร็จ ซึ่งยืนยันการปฏิบัติตามมาตรฐานอุตสาหกรรม ข้อมูลจะถูกเข้ารหัสเมื่อไม่มีการใช้งาน (AES-256) และเมื่อมีการส่งผ่าน (TLS 1.2+) การควบคุมการเข้าถึงที่เข้มงวด ทีมรักษาความปลอดภัยที่พร้อมให้บริการตลอด 24/7/365 และโปรแกรม Bug Bounty ช่วยเสริมความปลอดภัย การปฏิบัติตามข้อกำหนดรวมถึงการเสนอ Data Processing Addendums (DPAs) สำหรับการสนับสนุน GDPR และ Student Data Privacy Agreements สำหรับแพลตฟอร์มการศึกษา ซึ่งแสดงให้เห็นถึงความมุ่งมั่นต่อมาตรฐานความเป็นส่วนตัวทั่วโลก"
  • question: "ธุรกิจมีอำนาจควบคุมการเก็บรักษาข้อมูลของตนภายในแพลตฟอร์มของ OpenAI อย่างไร?" answer: "สำหรับ ChatGPT Enterprise, Healthcare และ Edu ผู้ดูแลระบบพื้นที่ทำงานจะเป็นผู้ควบคุมนโยบายการเก็บรักษาข้อมูล สำหรับ ChatGPT Business และ Teachers ผู้ใช้ปลายทางแต่ละคนจะควบคุมการเก็บรักษาการสนทนา การสนทนาที่ถูกลบหรือไม่บันทึกจะถูกลบออกจากระบบของ OpenAI ภายใน 30 วัน เว้นแต่ภาระผูกพันทางกฎหมายจะกำหนดให้เก็บรักษาไว้นานกว่านั้น ระยะเวลาการเก็บรักษาที่สั้นลงอาจส่งผลต่อคุณสมบัติของผลิตภัณฑ์ เช่น ประวัติการสนทนา ซึ่งต้องรักษาสมดุลระหว่างความเป็นส่วนตัวกับฟังก์ชันการทำงานเพื่อการใช้งานที่เหมาะสมที่สุด"
  • question: "ใครเป็นเจ้าของอินพุตและเอาต์พุตที่สร้างขึ้นเมื่อใช้บริการของ OpenAI สำหรับธุรกิจ?" answer: "ระหว่างผู้ใช้ทางธุรกิจกับ OpenAI คุณยังคงเป็นเจ้าของสิทธิ์ทั้งหมดในอินพุตที่ให้ไว้กับบริการของพวกเขา คุณยังเป็นเจ้าของเอาต์พุตใดๆ ที่ได้รับจากบริการของพวกเขาอย่างถูกต้องตามกฎหมาย ในขอบเขตที่กฎหมายอนุญาต OpenAI ได้รับสิทธิ์ที่จำเป็นในการให้บริการ ปฏิบัติตามกฎหมายที่บังคับใช้ และบังคับใช้นโยบายเท่านั้น การกำหนดสิทธิ์ความเป็นเจ้าของที่ชัดเจนนี้ทำให้มั่นใจว่าทรัพย์สินทางปัญญาที่สร้างขึ้นผ่านเครื่องมือ AI ยังคงเป็นของลูกค้าอย่างมั่นคง"
  • question: "GPTs และ Apps ทำงานร่วมกับข้อผูกมัดด้านความเป็นส่วนตัวระดับองค์กรของ OpenAI อย่างไร?" answer: "เมื่อใช้ GPTs หรือ Apps ภายในสภาพแวดล้อม ChatGPT ระดับองค์กร (Enterprise, Business, Healthcare, Teachers, Edu) ข้อผูกมัดด้านความเป็นส่วนตัวแบบเดียวกันจะมีผลบังคับใช้ GPTs ที่แชร์ภายในจะปฏิบัติตามนโยบายข้อมูลที่มีอยู่และค่าเริ่มต้นที่ไม่ใช้ในการฝึกโมเดล การแชร์ GPTs สาธารณะ หากผู้ดูแลระบบเปิดใช้งาน อาจต้องมีการตรวจสอบเพิ่มเติม แม้ว่าจะไม่รองรับสำหรับการดูแลสุขภาพก็ตาม Apps จะเชื่อมต่อกับแหล่งภายใน/บุคคลที่สามโดยเคารพสิทธิ์ และ OpenAI จะไม่ฝึกโมเดลจากข้อมูลที่เข้าถึงผ่านแอปพลิเคชันเหล่านี้ตามค่าเริ่มต้น ซึ่งรักษาความเป็นส่วนตัวไว้"
  • question: "การสนทนาและประวัติการแชทสามารถเข้าถึงได้โดยผู้อื่นภายในองค์กรของฉันหรือพนักงานของ OpenAI หรือไม่?" answer: "การเข้าถึงจะแตกต่างกันไปตามผลิตภัณฑ์ ใน ChatGPT Enterprise, Edu และ Healthcare ผู้ใช้ปลายทางจะเห็นการสนทนาของตนเอง และผู้ดูแลระบบพื้นที่ทำงานสามารถเข้าถึงบันทึกการตรวจสอบผ่าน Compliance API พนักงานของ OpenAI ที่ได้รับอนุญาตจะเข้าถึงการสนทนาได้เฉพาะเพื่อแก้ไขเหตุการณ์ การกู้คืนตามการอนุญาตของผู้ใช้ หรือตามคำสั่งทางกฎหมาย สำหรับ Business และ Teachers การเข้าถึงของพนักงานจะจำกัดอยู่เพียงการสนับสนุนด้านวิศวกรรม การสอบสวนการละเมิด และการปฏิบัติตามกฎหมาย โดยมีผู้รับเหมาบุคคลที่สามตรวจสอบการละเมิดภายใต้ข้อกำหนดการรักษาความลับที่เข้มงวดด้วย"
  • question: "แพลตฟอร์ม API ของ OpenAI สามารถใช้สำหรับข้อมูลที่ละเอียดอ่อน เช่น ข้อมูลสุขภาพที่ได้รับการคุ้มครอง (PHI) ได้หรือไม่?" answer: "แม้ว่า ChatGPT for Healthcare ได้รับการออกแบบมาเพื่อรองรับการปฏิบัติตาม HIPAA ซึ่งเหมาะสมกับข้อมูลสุขภาพที่ได้รับการคุ้มครอง (PHI) แต่คำถามโดยตรงเกี่ยวกับการใช้ PHI บนแพลตฟอร์ม API จำเป็นต้องมีการชี้แจงเพิ่มเติม เมื่อพิจารณาจากมาตรฐานการปฏิบัติตามข้อกำหนดที่แข็งแกร่งของ OpenAI รวมถึงการรับรอง SOC 2 Type 2 สำหรับ API ของพวกเขา การใช้ API สำหรับ PHI โดยทั่วไปจะต้องมีข้อตกลงตามสัญญาเฉพาะ เช่น Business Associate Agreement (BAA) องค์กรควรปรึกษา OpenAI โดยตรงสำหรับการจัดการข้อมูลสุขภาพที่ละเอียดอ่อน"

# ความเป็นส่วนตัวระดับองค์กรของ OpenAI: ปกป้องข้อมูลธุรกิจของคุณด้วย AI
ในภูมิทัศน์ของปัญญาประดิษฐ์ที่พัฒนาไปอย่างรวดเร็ว องค์กรต่างๆ กำลังใช้ประโยชน์จากโมเดล AI ที่ทรงพลังมากขึ้นเรื่อยๆ เพื่อขับเคลื่อนนวัตกรรม ประสิทธิภาพ และการเติบโต อย่างไรก็ตาม การนำ AI มาใช้ โดยเฉพาะอย่างยิ่งกับโมเดลภาษาขนาดใหญ่ ก่อให้เกิดคำถามสำคัญเกี่ยวกับความเป็นส่วนตัวของข้อมูล ความปลอดภัย และการเป็นเจ้าของ OpenAI ซึ่งเป็นผู้นำด้านการวิจัยและพัฒนา AI ได้วางกรอบการทำงานที่ครอบคลุมเพื่อจัดการกับข้อกังวลเหล่านี้สำหรับลูกค้าองค์กร บทความนี้จะเจาะลึกถึงข้อผูกมัดของ OpenAI เพื่อให้มั่นใจว่าธุรกิจสามารถรวม AI เข้ากับระบบได้อย่างมั่นใจ

## ความมุ่งมั่นอันแน่วแน่ของ OpenAI ต่อความเป็นส่วนตัวของข้อมูลองค์กร
OpenAI เข้าใจว่าสำหรับธุรกิจแล้ว ความไว้วางใจคือสิ่งสำคัญที่สุด กรอบการทำงานด้านความเป็นส่วนตัวสำหรับผู้ใช้ระดับองค์กรของพวกเขามุ่งเน้นไปที่สามเสาหลัก: **การเป็นเจ้าของ**, **การควบคุม**, และ **ความปลอดภัย** ข้อผูกมัดเหล่านี้ใช้ได้ครอบคลุมผลิตภัณฑ์ที่มุ่งเน้นธุรกิจของพวกเขา ซึ่งรวมถึง ChatGPT Business, ChatGPT Enterprise, ChatGPT for Healthcare, ChatGPT Edu, ChatGPT for Teachers และแพลตฟอร์ม API ของพวกเขา เป้าหมายคือเพื่อให้ธุรกิจมั่นใจได้อย่างชัดเจนว่าข้อมูลอันมีค่าของพวกเขาจะยังคงเป็นของพวกเขาเอง และได้รับการจัดการด้วยความเอาใจใส่สูงสุด

ปรัชญานี้จัดการโดยตรงกับหนึ่งในความลังเลใจที่พบบ่อยที่สุดที่ธุรกิจมีเมื่อพิจารณาเครื่องมือ AI: ความกลัวว่าข้อมูลที่เป็นกรรมสิทธิ์ของพวกเขาอาจถูกนำไปใช้ในการฝึกโมเดลหรือกลายเป็นสาธารณะ แนวทางของ OpenAI มุ่งเป้าไปที่การลดความเสี่ยงเหล่านี้เชิงรุก ช่วยให้องค์กรได้รับประโยชน์จาก AI โดยไม่กระทบต่อข้อมูลที่ละเอียดอ่อนหรือความได้เปรียบทางการแข่งขันของพวกเขา

## การเป็นเจ้าของและควบคุมข้อมูล: เพิ่มศักยภาพให้ธุรกิจของคุณ
หัวใจสำคัญของนโยบายความเป็นส่วนตัวระดับองค์กรของ OpenAI คือจุดยืนที่แข็งแกร่งเกี่ยวกับการเป็นเจ้าของข้อมูล **ตามค่าเริ่มต้น OpenAI จะไม่ฝึกโมเดลของตนด้วยข้อมูลธุรกิจของคุณ** ซึ่งรวมถึงอินพุตและเอาต์พุตทั้งหมดที่สร้างขึ้นผ่านบริการระดับองค์กรของพวกเขา ข้อผูกมัดนี้มีความสำคัญอย่างยิ่งต่อการรักษาความลับของข้อมูล และการทำให้มั่นใจว่าข้อมูลที่เป็นกรรมสิทธิ์ยังคงอยู่ภายในขอบเขตขององค์กรของคุณ

นอกจากนี้ OpenAI ยังระบุไว้อย่างชัดเจนว่า **คุณเป็นเจ้าของอินพุตและเอาต์พุตของคุณ** (ในขอบเขตที่กฎหมายอนุญาต) ซึ่งเป็นการยืนยันสิทธิ์ในทรัพย์สินทางปัญญาของคุณ สิ่งนี้หมายความว่าเนื้อหาเชิงสร้างสรรค์ รหัส หรือการวิเคราะห์ใดๆ ที่สร้างขึ้นโดยใช้เครื่องมือของพวกเขาเป็นของธุรกิจของคุณ

การควบคุมขยายออกไปนอกเหนือจากการเป็นเจ้าของไปสู่การจัดการข้อมูลภายในของคุณ คุณสมบัติต่างๆ เช่น **SAML SSO** (Single Sign-On) ให้การรับรองความถูกต้องระดับองค์กร ซึ่งช่วยปรับปรุงการจัดการการเข้าถึง การควบคุมที่ละเอียดอ่อนช่วยให้องค์กรสามารถกำหนดได้ว่าใครสามารถเข้าถึงคุณสมบัติและข้อมูลภายในพื้นที่ทำงานของตน สำหรับผู้ที่สร้างโซลูชันแบบกำหนดเอง โมเดลที่กำหนดเองที่ฝึกผ่านแพลตฟอร์ม API นั้นเป็นของคุณโดยเฉพาะและจะไม่ถูกแชร์ นอกจากนี้ ผู้ดูแลระบบพื้นที่ทำงานยังสามารถควบคุม **นโยบายการเก็บรักษาข้อมูล** โดยตรงสำหรับผลิตภัณฑ์ต่างๆ เช่น ChatGPT Enterprise, ChatGPT for Healthcare และ ChatGPT Edu ซึ่งช่วยให้พวกเขาสามารถปรับการจัดการวงจรชีวิตข้อมูลให้สอดคล้องกับข้อกำหนดการปฏิบัติตามข้อกำหนดภายในองค์กร

การรวม **GPTs** และ **Apps** ภายในสภาพแวดล้อมระดับองค์กรก็เป็นไปตามหลักการเหล่านี้ด้วย GPTs ที่สร้างและแชร์ภายในพื้นที่ทำงานจะอยู่ภายใต้ข้อผูกมัดด้านความเป็นส่วนตัวแบบเดียวกัน เพื่อให้มั่นใจว่าข้อมูลภายในยังคงเป็นส่วนตัว ในทำนองเดียวกัน เมื่อ ChatGPT เชื่อมต่อกับแอปพลิเคชันภายในหรือบุคคลที่สามผ่าน Apps ก็จะเคารพสิทธิ์การอนุญาตขององค์กรที่มีอยู่ และที่สำคัญคือ OpenAI จะไม่ฝึกโมเดลของตนด้วยข้อมูลใดๆ ที่เข้าถึงผ่านการรวมระบบเหล่านี้ตามค่าเริ่มต้น แนวทางที่ครอบคลุมนี้ช่วยให้ธุรกิจสามารถใช้ประโยชน์จากความสามารถ AI ขั้นสูงในขณะที่ยังคงรักษาการกำกับดูแลข้อมูลของตนอย่างเข้มงวด

## เสริมสร้างความไว้วางใจด้วยความปลอดภัยและการปฏิบัติตามข้อกำหนดที่แข็งแกร่ง
ความมุ่งมั่นของ OpenAI ต่อความเป็นส่วนตัวระดับองค์กรได้รับการสนับสนุนด้วยมาตรการรักษาความปลอดภัยที่แข็งแกร่งและการปฏิบัติตามมาตรฐานการปฏิบัติตามข้อกำหนดที่เป็นที่ยอมรับ บริษัทได้ดำเนินการตรวจสอบ **SOC 2** สำเร็จ ซึ่งยืนยันว่าการควบคุมของบริษัทสอดคล้องกับเกณฑ์มาตรฐานอุตสาหกรรมสำหรับความปลอดภัยและการรักษาความลับ การตรวจสอบอิสระนี้ให้ความมั่นใจอย่างมากแก่ธุรกิจเกี่ยวกับความสมบูรณ์ของระบบของ OpenAI

การปกป้องข้อมูลได้รับการเสริมความแข็งแกร่งเพิ่มเติมผ่านการ **เข้ารหัส** ข้อมูลทั้งหมดจะถูกเข้ารหัสเมื่อไม่มีการใช้งานโดยใช้ **AES-256** ซึ่งเป็นอัลกอริทึมการเข้ารหัสมาตรฐานอุตสาหกรรม และข้อมูลที่กำลังส่งผ่านระหว่างลูกค้า OpenAI และผู้ให้บริการจะได้รับการรักษาความปลอดภัยโดยใช้ **TLS 1.2+** การควบคุมการเข้าถึงที่เข้มงวดจำกัดผู้ที่สามารถเข้าถึงข้อมูลได้ และทีมรักษาความปลอดภัยที่พร้อมให้บริการตลอด 24/7/365 พร้อมที่จะตอบสนองต่อเหตุการณ์ที่อาจเกิดขึ้น OpenAI ยังดำเนินการ [โปรแกรม Bug Bounty](https://openai.com/blog/bug-bounty-program/) เพื่อส่งเสริมการเปิดเผยช่องโหว่ที่รับผิดชอบ สำหรับข้อมูลเชิงลึกเพิ่มเติม องค์กรสามารถปรึกษา Trust Portal เฉพาะของ OpenAI ได้

จากมุมมองของการปฏิบัติตามข้อกำหนด OpenAI สนับสนุนธุรกิจในการปฏิบัติตามข้อผูกพันด้านกฎระเบียบอย่างแข็งขัน พวกเขาเสนอ **Data Processing Addendums (DPAs)** สำหรับผลิตภัณฑ์ที่มีสิทธิ์ เช่น ChatGPT Business, ChatGPT Enterprise และ API ซึ่งช่วยในการปฏิบัติตามกฎหมายความเป็นส่วนตัว เช่น **GDPR** สำหรับสถาบันการศึกษา มี **Student Data Privacy Agreement** เฉพาะสำหรับ ChatGPT Edu และสำหรับ Teachers ซึ่งเน้นย้ำถึงแนวทางที่ปรับให้เข้ากับภาคส่วนต่างๆ

สิ่งสำคัญคือต้องทราบว่าในขณะที่ OpenAI ใช้เครื่องมือจัดประเภทเนื้อหาและเครื่องมือความปลอดภัยแบบอัตโนมัติเพื่อทำความเข้าใจการใช้งานบริการ กระบวนการเหล่านี้จะสร้างเมตาดาต้าเกี่ยวกับข้อมูลธุรกิจและ **ไม่ได้มีข้อมูลธุรกิจนั้นๆ เอง** การตรวจสอบข้อมูลธุรกิจโดยมนุษย์จะถูกจำกัดอย่างเข้มงวดและดำเนินการเป็นรายบริการภายใต้เงื่อนไขเฉพาะเท่านั้น ซึ่งช่วยรักษาความลับให้ปลอดภัยมากยิ่งขึ้น

## ความเป็นส่วนตัวที่ปรับแต่งตามความต้องการในชุดผลิตภัณฑ์ที่หลากหลายของ OpenAI
OpenAI นำเสนอผลิตภัณฑ์ ChatGPT ที่หลากหลาย ซึ่งแต่ละผลิตภัณฑ์ได้รับการออกแบบมาโดยคำนึงถึงความต้องการเฉพาะของผู้ใช้ และการกำหนดค่าความเป็นส่วนตัวของพวกเขาสะท้อนให้เห็นถึงความเชี่ยวชาญนี้

*   **ChatGPT Enterprise** สร้างขึ้นสำหรับองค์กรขนาดใหญ่ โดยนำเสนอการควบคุมขั้นสูงและความเร็วในการปรับใช้
*   **ChatGPT Edu** ให้บริการแก่มหาวิทยาลัย โดยมีการควบคุมการดูแลระบบที่คล้ายกันซึ่งปรับให้เข้ากับการใช้งานทางวิชาการ
*   **ChatGPT for Healthcare** เป็นพื้นที่ทำงานที่ปลอดภัยซึ่งออกแบบมาเพื่อรองรับการ **ปฏิบัติตาม HIPAA** ซึ่งสำคัญสำหรับองค์กรด้านการดูแลสุขภาพ
*   **ChatGPT Business** ตอบสนองทีมขนาดเล็กและทีมที่กำลังเติบโตด้วยเครื่องมือการทำงานร่วมกันและการเข้าถึงด้วยตนเอง
*   **ChatGPT for Teachers** ได้รับการปรับแต่งสำหรับนักการศึกษา K-12 ในสหรัฐอเมริกา โดยรวมการปกป้องระดับการศึกษาและการควบคุมของผู้ดูแลระบบ
*   แพลตฟอร์ม **API** ช่วยให้นักพัฒนาเข้าถึงโมเดลที่ทรงพลัง เช่น GPT-5 ได้โดยตรง ทำให้สามารถพัฒนาแอปพลิเคชันที่กำหนดเองได้ สำหรับข้อมูลเชิงลึกเกี่ยวกับความสามารถของ API คุณสามารถสำรวจบทความเช่น [GPT-5.2 Codex](/th/openai-gpt-5-2-codex)

แม้ว่าข้อผูกมัดด้านความเป็นส่วนตัวหลักจะยังคงสอดคล้องกัน แต่ก็มีความแตกต่างเล็กน้อยในด้านต่างๆ เช่น การมองเห็นการสนทนาและการควบคุมการเก็บรักษาข้อมูลในแพลตฟอร์มเหล่านี้ ตารางด้านล่างแสดงให้เห็นถึงความแตกต่างที่สำคัญของฟีเจอร์ความเป็นส่วนตัวบางประการ:

| คุณสมบัติ                                  | ChatGPT Enterprise/Edu/Healthcare | ChatGPT Business | ChatGPT for Teachers | แพลตฟอร์ม API          |
| :---------------------------------------- | :-------------------------------- | :--------------- | :------------------- | :-------------------- |
| ข้อมูลสำหรับการฝึกโมเดล (ค่าเริ่มต้น)      | ไม่                               | ไม่              | ไม่                  | ไม่                   |
| การเป็นเจ้าของข้อมูล (อินพุต/เอาต์พุต)      | ผู้ใช้/องค์กร                      | ผู้ใช้/องค์กร    | ผู้ใช้/องค์กร        | ผู้ใช้/องค์กร        |
| การควบคุมการเก็บรักษาข้อมูลโดยผู้ดูแลระบบ | ใช่                               | ไม่ (ควบคุมโดยผู้ใช้ปลายทาง) | ไม่ (ควบคุมโดยผู้ใช้ปลายทาง) | ไม่มี (ควบคุมโดยผู้ใช้/นักพัฒนา) |
| ได้รับการรับรอง SOC 2                    | ใช่ (Type 2)                      | ใช่ (Type 2)     | ปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุด | ใช่ (Type 2)          |
| มี DPA/SDPA ให้บริการ                     | ใช่ (DPA/SDPA)                    | ใช่ (DPA)        | ใช่ (SDPA)           | ใช่ (DPA)             |
| การเข้าถึงบันทึกการตรวจสอบของผู้ดูแลระบบ  | ใช่ (Compliance API)              | ไม่              | ไม่                  | ไม่มี                  |

สำหรับผลิตภัณฑ์อย่าง ChatGPT Enterprise, Edu และ Healthcare ผู้ดูแลระบบพื้นที่ทำงานสามารถเข้าถึงบันทึกการตรวจสอบการสนทนาและ GPTs ผ่าน Compliance API ซึ่งให้การกำกับดูแลที่แข็งแกร่ง ในทางตรงกันข้าม สำหรับ ChatGPT Business และ Teachers การมองเห็นการสนทนามักจะจำกัดเฉพาะผู้ใช้ปลายทาง โดยการเข้าถึงภายในของ OpenAI ถูกจำกัดเฉพาะความต้องการด้านการปฏิบัติงานและการปฏิบัติตามข้อกำหนดภายใต้เงื่อนไขที่เข้มงวดเท่านั้น

## การจัดการการเก็บรักษาข้อมูลและการใช้งาน AI อย่างมีความรับผิดชอบ
การเก็บรักษาข้อมูลเป็นส่วนสำคัญของความเป็นส่วนตัวระดับองค์กร OpenAI เสนอนโยบายการเก็บรักษาข้อมูลที่ยืดหยุ่น โดยผู้ดูแลระบบพื้นที่ทำงานใน ChatGPT Enterprise, Edu และ Healthcare สามารถควบคุมระยะเวลาการเก็บรักษาข้อมูลได้ สำหรับ ChatGPT Business และ ChatGPT for Teachers ผู้ใช้ปลายทางแต่ละคนมักจะจัดการการตั้งค่าการเก็บรักษาการสนทนาตนเอง ตามค่าเริ่มต้น การสนทนาที่ถูกลบหรือไม่บันทึกจะถูกลบออกจากระบบของ OpenAI ภายใน 30 วัน เว้นแต่ข้อกำหนดทางกฎหมายจะกำหนดให้เก็บรักษาไว้นานกว่านั้น สิ่งสำคัญคือต้องทราบว่าการเก็บรักษาข้อมูลจะช่วยให้คุณสมบัติต่างๆ เช่น ประวัติการสนทนาใช้งานได้ และระยะเวลาการเก็บรักษาที่สั้นลงอาจส่งผลต่อประสบการณ์การใช้งานผลิตภัณฑ์

แนวทางของ OpenAI สะท้อนให้เห็นถึงความเข้าใจอย่างลึกซึ้งในความต้องการที่หลากหลายของธุรกิจ ตั้งแต่บริษัทขนาดใหญ่ไปจนถึงนักการศึกษาแต่ละคน ด้วยการนำเสนอการควบคุมความเป็นส่วนตัวที่ปรับแต่งตามความต้องการและการสนับสนุนการปฏิบัติตามข้อกำหนด พวกเขาช่วยให้องค์กรในวงกว้างสามารถนำ AI มาใช้ได้อย่างปลอดภัยและมีความรับผิดชอบ ขยายขนาด AI ให้ทุกคนเข้าถึงได้ ความทุ่มเทในด้านความเป็นส่วนตัวนี้ทำให้มั่นใจได้ว่าในขณะที่ความสามารถของ AI ก้าวหน้าขึ้น ธุรกิจยังคงสามารถสร้างสรรค์สิ่งใหม่ๆ ได้อย่างมั่นใจ โดยรู้ว่าข้อมูลที่ละเอียดอ่อนของพวกเขาได้รับการปกป้อง

แหล่งที่มา

https://openai.com/enterprise-privacy/

คำถามที่พบบ่อย

Does OpenAI use my business data to train its AI models?
By default, OpenAI does not use your business data—including inputs and outputs from ChatGPT Business, Enterprise, Healthcare, Edu, Teachers, or the API Platform—for training its models. This commitment ensures your proprietary information remains confidential, unless you explicitly opt-in through feedback mechanisms for service improvement. The core principle is non-training by default, granting enterprises significant control over their intellectual property.
How does OpenAI ensure the security and compliance of enterprise data?
OpenAI enforces robust data security and compliance measures, including successful SOC 2 audits, affirming adherence to industry standards. Data is encrypted at rest (AES-256) and in transit (TLS 1.2+). Strict access controls, a 24/7/365 on-call security team, and a Bug Bounty Program bolster security. Compliance includes offering Data Processing Addendums (DPAs) for GDPR support and Student Data Privacy Agreements for educational platforms, demonstrating a commitment to global privacy standards.
What control do businesses have over their data retention within OpenAI's platforms?
For ChatGPT Enterprise, Healthcare, and Edu, workspace administrators control data retention policies. For ChatGPT Business and Teachers, individual end users control conversation retention. Deleted or unsaved conversations are typically removed from OpenAI's systems within 30 days, unless legal obligations require longer retention. Shorter retention periods might impact product features like conversation history, balancing privacy with functionality for optimal use.
Who owns the inputs and outputs generated when using OpenAI's services for business?
Between the business user and OpenAI, you retain all rights to the inputs provided to their services. You also own any output rightfully received from their services, to the extent permitted by law. OpenAI only acquires rights necessary to provide services, comply with applicable laws, and enforce policies. This clear ownership delineation ensures intellectual property generated through AI tools remains firmly with the client.
How do GPTs and Apps integrate with OpenAI's enterprise privacy commitments?
When using GPTs or Apps within enterprise ChatGPT environments (Enterprise, Business, Healthcare, Teachers, Edu), the same privacy commitments apply. Internally shared GPTs adhere to existing data policies and non-training defaults. Public sharing of GPTs, if enabled by admins, may incur additional review, though not supported for healthcare. Apps connect to internal/third-party sources respecting permissions, and OpenAI does not train models on data accessed via these applications by default, maintaining privacy.
Are conversations and chat histories accessible to others within my organization or to OpenAI employees?
Access varies by product. In ChatGPT Enterprise, Edu, and Healthcare, end users view their own conversations, and workspace admins can access audit logs via a Compliance API. Authorized OpenAI employees access conversations only for incident resolution, user permission-based recovery, or legal mandates. For Business and Teachers, employee access is limited to engineering support, abuse investigation, and legal compliance, with third-party contractors also reviewing for abuse under strict confidentiality.
Can OpenAI's API Platform be used for sensitive data like Protected Health Information (PHI)?
While ChatGPT for Healthcare is designed to support HIPAA compliance, suitable for Protected Health Information (PHI), the direct question for the API Platform's PHI use needs further clarification. Given OpenAI's robust compliance standards, including SOC 2 Type 2 certification for its API, using the API for PHI would generally necessitate specific contractual agreements, such as a Business Associate Agreement (BAA). Organizations should consult OpenAI directly for handling sensitive health data.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์