Code Velocity
Корпоративный ИИ

Конфиденциальность OpenAI Enterprise: раскрытие владения данными и безопасности

·5 мин чтения·OpenAI·Первоисточник
Поделиться
Конфиденциальность OpenAI Enterprise: безопасное владение и контроль данных для компаний, использующих инструменты ИИ

title: "Конфиденциальность OpenAI Enterprise: раскрытие владения данными и безопасности" slug: "enterprise-privacy" date: "2026-03-06" lang: "ru" source: "https://openai.com/enterprise-privacy/" category: "Корпоративный ИИ" keywords:

  • OpenAI
  • Конфиденциальность в корпоративной среде
  • Безопасность данных
  • Владение данными
  • Соответствие GDPR
  • Аудит SOC 2
  • ChatGPT Enterprise
  • Платформа API
  • Бизнес-данные
  • Конфиденциальность ИИ
  • Контроль данных
  • Обучение моделей meta_description: "Изучите всеобъемлющие обязательства OpenAI по обеспечению конфиденциальности корпоративных данных, подробно описывающие владение данными, протоколы безопасности, такие как SOC 2, и соответствие GDPR для решений ChatGPT Business, Enterprise и API." image: "/images/articles/enterprise-privacy.png" image_alt: "Конфиденциальность OpenAI Enterprise: безопасное владение и контроль данных для компаний, использующих инструменты ИИ" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Использует ли OpenAI мои бизнес-данные для обучения своих моделей ИИ?" answer: 'По умолчанию OpenAI не использует ваши бизнес-данные, включая входные и выходные данные из ChatGPT Business, Enterprise, Healthcare, Edu, Teachers или платформы API, для обучения своих моделей. Это обязательство гарантирует конфиденциальность вашей проприетарной информации, если вы явно не дадите согласие через механизмы обратной связи для улучшения сервиса. Основной принцип — отсутствие обучения по умолчанию, что предоставляет предприятиям значительный контроль над их интеллектуальной собственностью.'
  • question: "Как OpenAI обеспечивает безопасность и соответствие корпоративных данных?" answer: 'OpenAI применяет надежные меры безопасности и соответствия данных, включая успешные аудиты SOC 2, подтверждающие соответствие отраслевым стандартам. Данные шифруются в состоянии покоя (AES-256) и при передаче (TLS 1.2+). Строгий контроль доступа, круглосуточная команда безопасности (24/7/365) и программа Bug Bounty усиливают безопасность. Соответствие включает предоставление Дополнений к соглашениям об обработке данных (DPA) для поддержки GDPR и Соглашений о конфиденциальности данных учащихся для образовательных платформ, демонстрируя приверженность мировым стандартам конфиденциальности.'
  • question: "Какой контроль имеют компании над хранением своих данных на платформах OpenAI?" answer: 'Для ChatGPT Enterprise, Healthcare и Edu администраторы рабочих пространств контролируют политики хранения данных. Для ChatGPT Business и Teachers отдельные конечные пользователи контролируют хранение разговоров. Удаленные или несохраненные разговоры обычно удаляются из систем OpenAI в течение 30 дней, если только юридические обязательства не требуют более длительного хранения. Более короткие сроки хранения могут повлиять на функции продукта, такие как история разговоров, балансируя конфиденциальность с функциональностью для оптимального использования.'
  • question: "Кому принадлежат входные и выходные данные, генерируемые при использовании услуг OpenAI для бизнеса?" answer: 'Между бизнес-пользователем и OpenAI вы сохраняете все права на входные данные, предоставляемые их сервисам. Вы также владеете любыми выходными данными, правомерно полученными от их сервисов, в той степени, в которой это разрешено законом. OpenAI приобретает права, необходимые только для предоставления услуг, соблюдения применимых законов и обеспечения соблюдения политик. Такое четкое разграничение прав собственности гарантирует, что интеллектуальная собственность, созданная с помощью инструментов ИИ, остается за клиентом.'
  • question: "Как GPT и Приложения интегрируются с обязательствами OpenAI по обеспечению конфиденциальности в корпоративной среде?" answer: 'При использовании GPT или Приложений в корпоративных средах ChatGPT (Enterprise, Business, Healthcare, Teachers, Edu) применяются те же обязательства по конфиденциальности. Внутренне совместно используемые GPT соответствуют существующим политикам данных и режимам отсутствия обучения по умолчанию. Публичный обмен GPT, если он разрешен администраторами, может потребовать дополнительной проверки, хотя не поддерживается для здравоохранения. Приложения подключаются к внутренним/сторонним источникам с соблюдением разрешений, и OpenAI по умолчанию не обучает модели на данных, доступных через эти приложения, сохраняя конфиденциальность.'
  • question: "Доступны ли разговоры и истории чатов другим сотрудникам моей организации или сотрудникам OpenAI?" answer: 'Доступ варьируется в зависимости от продукта. В ChatGPT Enterprise, Edu и Healthcare конечные пользователи видят свои собственные разговоры, а администраторы рабочих пространств могут получать доступ к журналам аудита через API соответствия. Авторизованные сотрудники OpenAI получают доступ к разговорам только для разрешения инцидентов, восстановления на основе разрешения пользователя или по юридическим требованиям. Для Business и Teachers доступ сотрудников ограничен поддержкой инженеров, расследованием злоупотреблений и соблюдением законодательства, при этом сторонние подрядчики также проводят проверку на предмет злоупотреблений при строгом соблюдении конфиденциальности.'
  • question: "Может ли платформа API OpenAI использоваться для конфиденциальных данных, таких как защищенная медицинская информация (PHI)?" answer: 'В то время как ChatGPT for Healthcare разработан для поддержки соответствия HIPAA, подходящего для защищенной медицинской информации (PHI), прямой вопрос об использовании PHI на платформе API требует дальнейшего уточнения. Учитывая надежные стандарты соответствия OpenAI, включая сертификацию SOC 2 Type 2 для ее API, использование API для PHI, как правило, потребует конкретных договорных соглашений, таких как Соглашение о деловом партнере (BAA). Организациям следует обращаться непосредственно в OpenAI для обработки конфиденциальных медицинских данных.'

Конфиденциальность OpenAI Enterprise: Защита Ваших Бизнес-Данных с помощью ИИ

В быстроразвивающемся мире искусственного интеллекта предприятия все чаще используют мощные модели ИИ для стимулирования инноваций, эффективности и роста. Однако внедрение ИИ, особенно больших языковых моделей, поднимает критические вопросы о конфиденциальности, безопасности и владении данными. OpenAI, лидер в исследованиях и внедрении ИИ, разработала всеобъемлющую структуру для решения этих проблем для своих корпоративных клиентов. Эта статья подробно рассматривает обязательства OpenAI, гарантируя, что компании могут интегрировать ИИ с уверенностью.

Непоколебимая Приверженность OpenAI Конфиденциальности Корпоративных Данных

OpenAI понимает, что для бизнеса доверие имеет первостепенное значение. Их концепция конфиденциальности для корпоративных пользователей основана на трех основных столпах: владение, контроль и безопасность. Эти обязательства распространяются на весь их пакет продуктов, ориентированных на бизнес, включая ChatGPT Business, ChatGPT Enterprise, ChatGPT for Healthcare, ChatGPT Edu, ChatGPT for Teachers и их платформу API. Цель состоит в том, чтобы предоставить компаниям четкие гарантии того, что их ценные данные остаются их собственностью и обрабатываются с максимальной тщательностью.

Эта философия напрямую решает одно из наиболее распространенных сомнений, которые возникают у компаний при рассмотрении инструментов ИИ: опасение, что их проприетарные данные могут быть использованы для обучения моделей или стать общедоступными. Подход OpenAI направлен на упреждающее снижение этих рисков, позволяя организациям извлекать выгоду из ИИ без ущерба для их конфиденциальной информации или конкурентного преимущества.

Владение и Контроль Данными: Расширение Возможностей Вашего Бизнеса

В основе политики конфиденциальности OpenAI для предприятий лежит твердая позиция в отношении владения данными. По умолчанию OpenAI не обучает свои модели на ваших бизнес-данных. Это включает все входные и выходные данные, генерируемые через их корпоративные сервисы. Это обязательство имеет решающее значение для поддержания конфиденциальности данных и обеспечения того, чтобы проприетарная информация оставалась в пределах вашей организации.

Более того, OpenAI явно заявляет, что вы владеете своими входными и выходными данными (где это разрешено законом), закрепляя ваши права на интеллектуальную собственность. Это означает, что любой творческий контент, код или анализ, сгенерированные с использованием их инструментов, принадлежат вашему бизнесу.

Контроль распространяется не только на владение, но и на то, как ваши данные управляются внутри компании. Такие функции, как SAML SSO (единый вход), обеспечивают аутентификацию на корпоративном уровне, упрощая управление доступом. Детальные элементы управления позволяют организациям определять, кто имеет доступ к функциям и данным в их рабочем пространстве. Для тех, кто создает пользовательские решения, пользовательские модели, обученные через платформу API, являются исключительно вашими и не передаются другим. Кроме того, администраторы рабочих пространств имеют прямой контроль над политиками хранения данных для таких продуктов, как ChatGPT Enterprise, ChatGPT for Healthcare и ChatGPT Edu, что позволяет им согласовывать управление жизненным циклом данных с внутренними требованиями соответствия.

Интеграция GPT и Приложений в корпоративные среды также придерживается этих принципов. GPT, созданные и совместно используемые внутри рабочего пространства, подпадают под те же обязательства по конфиденциальности, гарантируя конфиденциальность внутренних данных. Аналогично, когда ChatGPT подключается к внутренним или сторонним приложениям через Приложения, он соблюдает существующие организационные разрешения, и, что критически важно, OpenAI по умолчанию не обучает свои модели на каких-либо данных, доступных через эти интеграции. Такой всеобъемлющий подход позволяет предприятиям использовать передовые возможности ИИ, сохраняя при этом строгий контроль над своими данными.

Укрепление Доверия с Помощью Надежной Безопасности и Соответствия Требованиям

Приверженность OpenAI конфиденциальности корпоративных данных подкрепляется надежными мерами безопасности и соблюдением признанных стандартов соответствия. Компания успешно завершила аудит SOC 2, который подтверждает, что ее средства контроля соответствуют отраслевым эталонам безопасности и конфиденциальности. Эта независимая проверка предоставляет компаниям значительные гарантии относительно целостности систем OpenAI.

Защита данных дополнительно усиливается с помощью шифрования. Все данные шифруются в состоянии покоя с использованием AES-256, стандартного для отрасли алгоритма шифрования, а данные при передаче между клиентами, OpenAI и ее поставщиками услуг защищены с использованием TLS 1.2+. Строгий контроль доступа ограничивает круг лиц, имеющих доступ к данным, а круглосуточная команда безопасности (24/7/365) готова реагировать на любые потенциальные инциденты. OpenAI также управляет программой Bug Bounty, поощряя ответственное раскрытие уязвимостей. Для получения более подробной информации предприятия могут обратиться к специализированному порталу доверия OpenAI.

С точки зрения соответствия требованиям, OpenAI активно поддерживает предприятия в выполнении регуляторных обязательств. Они предлагают Дополнения к соглашениям об обработке данных (DPA) для соответствующих продуктов, таких как ChatGPT Business, ChatGPT Enterprise и API, что помогает соблюдать законы о конфиденциальности, такие как GDPR. Для образовательных учреждений действует специальное Соглашение о конфиденциальности данных учащихся для ChatGPT Edu и Teachers, что подчеркивает их индивидуальный подход к различным секторам.

Важно отметить, что хотя OpenAI использует автоматизированные классификаторы контента и инструменты безопасности для понимания использования сервиса, эти процессы генерируют метаданные о бизнес-данных и не содержат самих бизнес-данных. Человеческий анализ бизнес-данных строго ограничен и проводится только на основе каждого сервиса при определенных условиях, что дополнительно обеспечивает конфиденциальность.

Индивидуальная Конфиденциальность Во Всем Разнообразном Наборе Продуктов OpenAI

OpenAI предлагает ряд продуктов ChatGPT, каждый из которых разработан с учетом конкретных потребностей пользователей, и их конфигурации конфиденциальности отражают эту специализацию.

  • ChatGPT Enterprise разработан для крупных организаций, предлагая расширенные средства управления и скорость развертывания.
  • ChatGPT Edu обслуживает университеты, предоставляя аналогичные административные средства управления, адаптированные для академического использования.
  • ChatGPT for Healthcare — это безопасное рабочее пространство, разработанное для поддержки соответствия HIPAA, что имеет решающее значение для медицинских организаций.
  • ChatGPT Business предназначен для малых и растущих команд, предлагая инструменты для совместной работы и самостоятельный доступ.
  • ChatGPT for Teachers адаптирован для преподавателей K-12 в США, включая защиту образовательного уровня и административные средства управления.
  • Платформа API предоставляет разработчикам прямой доступ к мощным моделям, таким как GPT-5, позволяя разрабатывать пользовательские приложения. Для получения подробной информации о возможностях API вы можете изучить такие статьи, как GPT-5.2 Codex.

Хотя основные обязательства по конфиденциальности остаются неизменными, существуют нюансы в таких аспектах, как видимость разговоров и элементы управления хранением данных на этих платформах. В таблице ниже представлены некоторые ключевые различия в функциях конфиденциальности:

ФункцияChatGPT Enterprise/Edu/HealthcareChatGPT BusinessChatGPT for TeachersAPI Platform
Данные для обучения моделей (по умолчанию)НетНетНетНет
Владение данными (входные/выходные)Пользователь/ОрганизацияПользователь/ОрганизацияПользователь/ОрганизацияПользователь/Разработчик
Административный контроль хранения данныхДаНет (контроль конечного пользователя)Нет (контроль конечного пользователя)Н/П (контроль пользователя/разработчика)
Сертификация SOC 2Да (Тип 2)Да (Тип 2)Соответствие лучшим практикамДа (Тип 2)
Доступны DPA/SDPAДа (DPA/SDPA)Да (DPA)Да (SDPA)Да (DPA)
Доступ к журналу аудита администратораДа (API соответствия)НетНетН/П

Для таких продуктов, как ChatGPT Enterprise, Edu и Healthcare, администраторы рабочих пространств могут получать доступ к журналам аудита разговоров и GPT через API соответствия, обеспечивая надежный надзор. В отличие от этого, для ChatGPT Business и Teachers видимость разговоров обычно ограничена конечным пользователем, а внутренний доступ OpenAI ограничен конкретными операционными потребностями и потребностями в соответствии с требованиями при строгих условиях.

Управление Хранением Данных и Ответственное Использование ИИ

Хранение данных является критически важным аспектом конфиденциальности предприятия. OpenAI предлагает гибкие политики хранения, при этом администраторы рабочих пространств в ChatGPT Enterprise, Edu и Healthcare могут контролировать, как долго хранятся данные. Для ChatGPT Business и ChatGPT for Teachers отдельные конечные пользователи обычно управляют своими настройками хранения разговоров. По умолчанию любые удаленные или несохраненные разговоры удаляются из систем OpenAI в течение 30 дней, если только юридическое требование не требует более длительного хранения. Важно отметить, что хранение данных позволяет использовать такие функции, как история разговоров, и более короткие сроки хранения могут повлиять на пользовательский опыт продукта.

Подход OpenAI отражает глубокое понимание разнообразных потребностей бизнеса, от крупнейших корпораций до индивидуальных преподавателей. Предлагая индивидуальные средства контроля конфиденциальности и поддержку соответствия, они позволяют более широкому кругу организаций безопасно и ответственно использовать ИИ, масштабируя ИИ для всех. Эта приверженность конфиденциальности гарантирует, что по мере развития возможностей ИИ предприятия смогут продолжать инновации с уверенностью, зная, что их конфиденциальная информация защищена.

Первоисточник

https://openai.com/enterprise-privacy/

Часто задаваемые вопросы

Does OpenAI use my business data to train its AI models?
By default, OpenAI does not use your business data—including inputs and outputs from ChatGPT Business, Enterprise, Healthcare, Edu, Teachers, or the API Platform—for training its models. This commitment ensures your proprietary information remains confidential, unless you explicitly opt-in through feedback mechanisms for service improvement. The core principle is non-training by default, granting enterprises significant control over their intellectual property.
How does OpenAI ensure the security and compliance of enterprise data?
OpenAI enforces robust data security and compliance measures, including successful SOC 2 audits, affirming adherence to industry standards. Data is encrypted at rest (AES-256) and in transit (TLS 1.2+). Strict access controls, a 24/7/365 on-call security team, and a Bug Bounty Program bolster security. Compliance includes offering Data Processing Addendums (DPAs) for GDPR support and Student Data Privacy Agreements for educational platforms, demonstrating a commitment to global privacy standards.
What control do businesses have over their data retention within OpenAI's platforms?
For ChatGPT Enterprise, Healthcare, and Edu, workspace administrators control data retention policies. For ChatGPT Business and Teachers, individual end users control conversation retention. Deleted or unsaved conversations are typically removed from OpenAI's systems within 30 days, unless legal obligations require longer retention. Shorter retention periods might impact product features like conversation history, balancing privacy with functionality for optimal use.
Who owns the inputs and outputs generated when using OpenAI's services for business?
Between the business user and OpenAI, you retain all rights to the inputs provided to their services. You also own any output rightfully received from their services, to the extent permitted by law. OpenAI only acquires rights necessary to provide services, comply with applicable laws, and enforce policies. This clear ownership delineation ensures intellectual property generated through AI tools remains firmly with the client.
How do GPTs and Apps integrate with OpenAI's enterprise privacy commitments?
When using GPTs or Apps within enterprise ChatGPT environments (Enterprise, Business, Healthcare, Teachers, Edu), the same privacy commitments apply. Internally shared GPTs adhere to existing data policies and non-training defaults. Public sharing of GPTs, if enabled by admins, may incur additional review, though not supported for healthcare. Apps connect to internal/third-party sources respecting permissions, and OpenAI does not train models on data accessed via these applications by default, maintaining privacy.
Are conversations and chat histories accessible to others within my organization or to OpenAI employees?
Access varies by product. In ChatGPT Enterprise, Edu, and Healthcare, end users view their own conversations, and workspace admins can access audit logs via a Compliance API. Authorized OpenAI employees access conversations only for incident resolution, user permission-based recovery, or legal mandates. For Business and Teachers, employee access is limited to engineering support, abuse investigation, and legal compliance, with third-party contractors also reviewing for abuse under strict confidentiality.
Can OpenAI's API Platform be used for sensitive data like Protected Health Information (PHI)?
While ChatGPT for Healthcare is designed to support HIPAA compliance, suitable for Protected Health Information (PHI), the direct question for the API Platform's PHI use needs further clarification. Given OpenAI's robust compliance standards, including SOC 2 Type 2 certification for its API, using the API for PHI would generally necessitate specific contractual agreements, such as a Business Associate Agreement (BAA). Organizations should consult OpenAI directly for handling sensitive health data.

Будьте в курсе

Получайте последние новости ИИ на почту.

Поделиться