title: "Поверителност на OpenAI за предприятия: Разкриване на собствеността и сигурността на данните" slug: "enterprise-privacy" date: "2026-03-06" lang: "bg" source: "https://openai.com/enterprise-privacy/" category: "Корпоративен изкуствен интелект" keywords:
- OpenAI
- Поверителност за предприятия
- Сигурност на данните
- Собственост върху данните
- Съответствие с GDPR
- Одит по SOC 2
- ChatGPT Enterprise
- API Platform
- Бизнес данни
- Поверителност на ИИ
- Контрол върху данните
- Обучение на модели meta_description: "Разгледайте всеобхватните ангажименти на OpenAI за поверителност на предприятията, подробно описващи собствеността върху данните, протоколите за сигурност като SOC 2 и съответствието с GDPR в решенията ChatGPT Business, Enterprise и API." image: "/images/articles/enterprise-privacy.png" image_alt: "Поверителност на OpenAI за предприятия: Сигурна собственост и контрол върху данните за бизнеси, използващи ИИ инструменти" quality_score: 94 content_score: 93 seo_score: 95 companies:
- OpenAI schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Използва ли OpenAI моите бизнес данни за обучение на своите AI модели?" answer: "По подразбиране OpenAI не използва вашите бизнес данни – включително входни и изходни данни от ChatGPT Business, Enterprise, Healthcare, Edu, Teachers или API платформата – за обучение на своите модели. Този ангажимент гарантира, че вашата конфиденциална информация остава поверителна, освен ако изрично не се включите чрез механизми за обратна връзка за подобряване на услугата. Основният принцип е не-обучение по подразбиране, предоставяйки на предприятията значителен контрол върху тяхната интелектуална собственост."
- question: "Как OpenAI гарантира сигурността и съответствието на корпоративните данни?" answer: "OpenAI прилага стабилни мерки за сигурност и съответствие на данните, включително успешно преминати SOC 2 одити, потвърждаващи придържането към индустриалните стандарти. Данните се криптират в покой (AES-256) и при пренос (TLS 1.2+). Строгият контрол на достъпа, екип за сигурност на повикване 24/7/365 и програма за откриване на грешки (Bug Bounty Program) допълнително укрепват сигурността. Съответствието включва предлагане на Допълнения за обработка на данни (DPAs) за поддръжка на GDPR и споразумения за поверителност на студентски данни за образователни платформи, демонстрирайки ангажимент към глобалните стандарти за поверителност."
- question: "Какъв контрол имат бизнесите върху съхранението на данните си в платформите на OpenAI?" answer: "За ChatGPT Enterprise, Healthcare и Edu администраторите на работното пространство контролират политиките за съхранение на данни. За ChatGPT Business и Teachers отделните крайни потребители контролират съхранението на разговорите. Изтритите или незапазени разговори обикновено се премахват от системите на OpenAI в рамките на 30 дни, освен ако правни задължения не изискват по-дълго съхранение. По-кратките срокове за съхранение може да повлияят на функциите на продукта като история на разговорите, балансирайки поверителността с функционалността за оптимална употреба."
- question: "Кой притежава входните и изходните данни, генерирани при използване на услугите на OpenAI за бизнес?" answer: "Между бизнес потребителя и OpenAI, вие запазвате всички права върху входните данни, предоставени на техните услуги. Вие също така притежавате всякакъв изход, получен законно от техните услуги, доколкото е позволено от закона. OpenAI придобива права само доколкото е необходимо за предоставяне на услуги, спазване на приложимите закони и прилагане на политики. Това ясно разграничаване на собствеността гарантира, че интелектуалната собственост, генерирана чрез AI инструменти, остава твърдо при клиента."
- question: "Как GPTs и Apps се интегрират с ангажиментите за поверителност на OpenAI за предприятия?" answer: "При използване на GPTs или Apps в корпоративни ChatGPT среди (Enterprise, Business, Healthcare, Teachers, Edu) се прилагат същите ангажименти за поверителност. Вътрешно споделените GPTs се придържат към съществуващите политики за данни и настройките за не-обучение по подразбиране. Публичното споделяне на GPTs, ако е разрешено от администраторите, може да изисква допълнителен преглед, макар и да не се поддържа за здравеопазване. Приложенията се свързват с вътрешни/трети страни източници, спазвайки разрешенията, и OpenAI по подразбиране не обучава модели върху данни, достъпни чрез тези приложения, поддържайки поверителност."
- question: "Достъпни ли са разговорите и историите на чата за други хора във моята организация или за служители на OpenAI?" answer: "Достъпът варира в зависимост от продукта. В ChatGPT Enterprise, Edu и Healthcare крайните потребители виждат собствените си разговори, а администраторите на работното пространство могат да достъпват одитни логове чрез Compliance API. Оторизирани служители на OpenAI достъпват разговори само за разрешаване на инциденти, възстановяване на базата на потребителски разрешения или законови предписания. За Business и Teachers достъпът на служителите е ограничен до инженерна поддръжка, разследване на злоупотреби и правно съответствие, като трети страни изпълнители също преглеждат за злоупотреби при строга конфиденциалност."
- question: "Може ли API платформата на OpenAI да се използва за чувствителни данни като Защитена Здравна Информация (PHI)?" answer: "Докато ChatGPT за Healthcare е предназначен да поддържа съответствие с HIPAA, подходящ за Защитена Здравна Информация (PHI), директният въпрос за използването на PHI от API платформата изисква допълнително изясняване. Предвид стабилните стандарти за съответствие на OpenAI, включително SOC 2 Type 2 сертификация за техния API, използването на API за PHI обикновено би изисквало специфични договорни споразумения, като например Споразумение за бизнес сътрудник (BAA). Организациите трябва да се консултират директно с OpenAI за обработка на чувствителни здравни данни."
# Поверителност на OpenAI за предприятия: Защита на вашите бизнес данни с ИИ
В бързо развиващия се пейзаж на изкуствения интелект, предприятията все по-често използват мощни ИИ модели за стимулиране на иновации, ефективност и растеж. Въпреки това, възприемането на ИИ, особено с големи езикови модели, повдига критични въпроси относно поверителността, сигурността и собствеността на данните. OpenAI, лидер в изследванията и внедряването на ИИ, е създал всеобхватна рамка, адресираща тези опасения за своите корпоративни клиенти. Тази статия разглежда задълбочено ангажиментите на OpenAI, гарантирайки, че бизнесите могат да интегрират ИИ с увереност.
## Непоколебимият ангажимент на OpenAI за поверителност на данните за предприятия
OpenAI разбира, че за бизнесите доверието е от първостепенно значение. Тяхната рамка за поверителност за корпоративни потребители се основава на три основни стълба: **собственост**, **контрол** и **сигурност**. Тези ангажименти се прилагат широко във всички техни бизнес ориентирани продукти, включително ChatGPT Business, ChatGPT Enterprise, ChatGPT за здравеопазване, ChatGPT Edu, ChatGPT за учители и тяхната API платформа. Целта е да се осигури на бизнесите ясни гаранции, че техните ценни данни остават техни собствени и се обработват с най-голяма грижа.
Тази философия пряко се справя с едно от най-често срещаните колебания, които бизнесите имат при разглеждането на ИИ инструменти: страхът, че техните собствени данни могат да бъдат използвани за обучение на модели или да станат публично достъпни. Подходът на OpenAI цели проактивно да смекчи тези рискове, позволявайки на организациите да се възползват от ИИ, без да компрометират своята чувствителна информация или конкурентно предимство.
## Собственост и контрол върху данните: Упълномощаване на вашия бизнес
В основата на политиката за поверителност на OpenAI за предприятия е силната позиция относно собствеността върху данните. **По подразбиране OpenAI не обучава своите модели върху вашите бизнес данни.** Това включва всички входни и изходни данни, генерирани чрез техните корпоративни услуги. Този ангажимент е от решаващо значение за поддържане на конфиденциалността на данните и гарантиране, че собствената информация остава в рамките на вашата организация.
Освен това, OpenAI изрично заявява, че **вие притежавате вашите входни и изходни данни** (когато е позволено от закона), укрепвайки вашите права върху интелектуалната собственост. Това означава, че всяко творческо съдържание, код или анализ, генерирани с техните инструменти, принадлежат на вашия бизнес.
Контролът се простира отвъд собствеността до това как вашите данни се управляват вътрешно. Функции като **SAML SSO** (Еднократно влизане) предоставят корпоративно ниво на удостоверяване, рационализирайки управлението на достъпа. Детайлният контрол позволява на организациите да определят кой има достъп до функции и данни в рамките на тяхното работно пространство. За тези, които изграждат персонализирани решения, персонализираните модели, обучени чрез API платформата, са изключително ваши и не се споделят. Освен това, администраторите на работното пространство имат пряк контрол върху **политиките за съхранение на данни** за продукти като ChatGPT Enterprise, ChatGPT за здравеопазване и ChatGPT Edu, което им позволява да привеждат управлението на жизнения цикъл на данните в съответствие с вътрешните изисквания за съответствие.
Интеграцията на **GPTs** и **Apps** в корпоративните среди също се придържа към тези принципи. GPTs, създадени и споделени вътрешно в рамките на работно пространство, са обект на същите ангажименти за поверителност, гарантирайки, че вътрешните данни остават частни. Подобно, когато ChatGPT се свързва с вътрешни или външни приложения чрез Apps, той спазва съществуващите организационни разрешения и, което е от решаващо значение, OpenAI по подразбиране не обучава своите модели върху данни, достъпни чрез тези интеграции. Този всеобхватен подход дава възможност на бизнесите да използват напреднали ИИ възможности, като същевременно поддържат строг надзор върху своите данни.
## Укрепване на доверието със стабилна сигурност и съответствие
Ангажиментът на OpenAI за поверителност на предприятията е подкрепен от стабилни мерки за сигурност и придържане към признати стандарти за съответствие. Компанията успешно е преминала **SOC 2 одит**, който потвърждава, че нейните контроли са в съответствие с индустриалните еталони за сигурност и конфиденциалност. Тази независима проверка предоставя значителна сигурност на бизнесите относно целостта на системите на OpenAI.
Защитата на данните е допълнително подсилена чрез **криптиране**. Всички данни се криптират в покой с помощта на **AES-256**, индустриално-стандартен алгоритъм за криптиране, а данните при пренос между клиенти, OpenAI и нейните доставчици на услуги са защитени с помощта на **TLS 1.2+**. Строгият контрол на достъпа ограничава кой може да достъпва данни, а екип за сигурност на повикване 24/7/365 е готов да реагира на всякакви потенциални инциденти. OpenAI също така управлява [Програма за награди за открити грешки (Bug Bounty Program)](https://openai.com/blog/bug-bounty-program/), насърчавайки отговорното разкриване на уязвимости. За по-подробна информация предприятията могат да се консултират със специализирания Trust Portal на OpenAI.
От гледна точка на съответствието, OpenAI активно подпомага бизнесите при изпълнението на регулаторните задължения. Те предлагат **Допълнения за обработка на данни (DPAs)** за допустими продукти като ChatGPT Business, ChatGPT Enterprise и API, подпомагайки съответствието със закони за поверителност като **GDPR**. За образователните институции е налице специфично **Споразумение за поверителност на студентски данни** за ChatGPT Edu и за учители, подчертавайки техния персонализиран подход към различните сектори.
Важно е да се отбележи, че докато OpenAI използва автоматизирани класификатори на съдържание и инструменти за безопасност за разбиране на използването на услугата, тези процеси генерират метаданни за бизнес данните и **не съдържат самите бизнес данни**. Човешкият преглед на бизнес данни е строго ограничен и се извършва само за конкретна услуга при специфични условия, допълнително защитавайки поверителността.
## Персонализирана поверителност в разнообразния продуктов пакет на OpenAI
OpenAI предлага гама от продукти ChatGPT, всеки от които е проектиран с оглед на специфични потребителски нужди, и техните конфигурации за поверителност отразяват тази специализация.
* **ChatGPT Enterprise** е създаден за големи организации, предлагайки разширени контроли и бързина на внедряване.
* **ChatGPT Edu** обслужва университети, предоставяйки подобни административни контроли, адаптирани за академична употреба.
* **ChatGPT for Healthcare** е защитено работно пространство, проектирано да поддържа **съответствие с HIPAA**, от решаващо значение за здравните организации.
* **ChatGPT Business** обслужва малки и разрастващи се екипи с инструменти за сътрудничество и достъп на самообслужване.
* **ChatGPT for Teachers** е съобразен с американските учители от K-12, включващ защити на образователно ниво и административни контроли.
* **API платформата** дава на разработчиците директен достъп до мощни модели като GPT-5, позволявайки разработването на персонализирани приложения. За подробна информация относно възможностите на API можете да разгледате статии като [GPT-5.2 Codex](/bg/openai-gpt-5-2-codex).
Докато основните ангажименти за поверителност остават последователни, съществуват нюанси в аспекти като видимостта на разговорите и контрола за съхранение на данни в тези платформи. Таблицата по-долу илюстрира някои ключови различия във функциите за поверителност:
| Характеристика | ChatGPT Enterprise/Edu/Healthcare | ChatGPT Business | ChatGPT за учители | API Platform |
| :--------------------------------------- | :-------------------------------- | :--------------- | :----------------- | :----------- |
| Данни за обучение на модела (по подразбиране) | Не | Не | Не | Не |
| Собственост върху данните (входни/изходни) | Потребител/Организация | Потребител/Организация| Потребител/Организация | Потребител/Разработчик |
| Админ. контрол за съхранение на данни | Да | Не (Контрол от краен потребител) | Не (Контрол от краен потребител) | Н/П (Контрол от потребител/разработчик) |
| SOC 2 Сертифициран | Да (Тип 2) | Да (Тип 2) | Придържа се към най-добри практики | Да (Тип 2) |
| Налични DPA/SDPA | Да (DPA/SDPA) | Да (DPA) | Да (SDPA) | Да (DPA) |
| Админ. достъп до одитни логове | Да (Compliance API) | Не | Не | Н/П |
За продукти като ChatGPT Enterprise, Edu и Healthcare администраторите на работното пространство могат да достъпват одитни логове на разговори и GPTs чрез Compliance API, осигурявайки стабилен надзор. За разлика от това, за ChatGPT Business и Teachers, видимостта на разговорите обикновено е ограничена до крайния потребител, като вътрешният достъп на OpenAI е ограничен до специфични оперативни нужди и съответствие при строги условия.
## Управление на съхранението на данни и отговорното използване на ИИ
Съхранението на данни е критичен аспект на поверителността за предприятията. OpenAI предлага гъвкави политики за съхранение, като администраторите на работното пространство в ChatGPT Enterprise, Edu и Healthcare могат да контролират колко дълго се съхраняват данните. За ChatGPT Business и ChatGPT за учители, отделните крайни потребители обикновено управляват своите настройки за съхранение на разговори. По подразбиране всички изтрити или незапазени разговори се премахват от системите на OpenAI в рамките на 30 дни, освен ако правно изискване не налага по-дълго съхранение. Важно е да се отбележи, че запазването на данни позволява функции като история на разговорите, а по-кратките срокове за съхранение могат да повлияят на потребителското изживяване с продукта.
Подходът на OpenAI отразява дълбоко разбиране на разнообразните нужди на бизнесите, от най-големите корпорации до отделните преподаватели. Като предлагат персонализирани контроли за поверителност и поддръжка за съответствие, те дават възможност на по-широк кръг от организации да възприемат ИИ сигурно и отговорно, мащабирайки ИИ за всички. Тази отдаденост на поверителността гарантира, че с напредването на възможностите на ИИ, бизнесите могат да продължат да иновират с увереност, знаейки, че тяхната чувствителна информация е защитена.
Оригинален източник
https://openai.com/enterprise-privacy/Често задавани въпроси
Does OpenAI use my business data to train its AI models?
By default, OpenAI does not use your business data—including inputs and outputs from ChatGPT Business, Enterprise, Healthcare, Edu, Teachers, or the API Platform—for training its models. This commitment ensures your proprietary information remains confidential, unless you explicitly opt-in through feedback mechanisms for service improvement. The core principle is non-training by default, granting enterprises significant control over their intellectual property.
How does OpenAI ensure the security and compliance of enterprise data?
OpenAI enforces robust data security and compliance measures, including successful SOC 2 audits, affirming adherence to industry standards. Data is encrypted at rest (AES-256) and in transit (TLS 1.2+). Strict access controls, a 24/7/365 on-call security team, and a Bug Bounty Program bolster security. Compliance includes offering Data Processing Addendums (DPAs) for GDPR support and Student Data Privacy Agreements for educational platforms, demonstrating a commitment to global privacy standards.
What control do businesses have over their data retention within OpenAI's platforms?
For ChatGPT Enterprise, Healthcare, and Edu, workspace administrators control data retention policies. For ChatGPT Business and Teachers, individual end users control conversation retention. Deleted or unsaved conversations are typically removed from OpenAI's systems within 30 days, unless legal obligations require longer retention. Shorter retention periods might impact product features like conversation history, balancing privacy with functionality for optimal use.
Who owns the inputs and outputs generated when using OpenAI's services for business?
Between the business user and OpenAI, you retain all rights to the inputs provided to their services. You also own any output rightfully received from their services, to the extent permitted by law. OpenAI only acquires rights necessary to provide services, comply with applicable laws, and enforce policies. This clear ownership delineation ensures intellectual property generated through AI tools remains firmly with the client.
How do GPTs and Apps integrate with OpenAI's enterprise privacy commitments?
When using GPTs or Apps within enterprise ChatGPT environments (Enterprise, Business, Healthcare, Teachers, Edu), the same privacy commitments apply. Internally shared GPTs adhere to existing data policies and non-training defaults. Public sharing of GPTs, if enabled by admins, may incur additional review, though not supported for healthcare. Apps connect to internal/third-party sources respecting permissions, and OpenAI does not train models on data accessed via these applications by default, maintaining privacy.
Are conversations and chat histories accessible to others within my organization or to OpenAI employees?
Access varies by product. In ChatGPT Enterprise, Edu, and Healthcare, end users view their own conversations, and workspace admins can access audit logs via a Compliance API. Authorized OpenAI employees access conversations only for incident resolution, user permission-based recovery, or legal mandates. For Business and Teachers, employee access is limited to engineering support, abuse investigation, and legal compliance, with third-party contractors also reviewing for abuse under strict confidentiality.
Can OpenAI's API Platform be used for sensitive data like Protected Health Information (PHI)?
While ChatGPT for Healthcare is designed to support HIPAA compliance, suitable for Protected Health Information (PHI), the direct question for the API Platform's PHI use needs further clarification. Given OpenAI's robust compliance standards, including SOC 2 Type 2 certification for its API, using the API for PHI would generally necessitate specific contractual agreements, such as a Business Associate Agreement (BAA). Organizations should consult OpenAI directly for handling sensitive health data.
Бъдете информирани
Получавайте последните AI новини по имейл.
